Warning: file_get_contents(/data/phpspider/zhask/data//catemap/0/hadoop/6.json): failed to open stream: No such file or directory in /data/phpspider/zhask/libs/function.php on line 167

Warning: Invalid argument supplied for foreach() in /data/phpspider/zhask/libs/tag.function.php on line 1116

Notice: Undefined index: in /data/phpspider/zhask/libs/function.php on line 180

Warning: array_chunk() expects parameter 1 to be array, null given in /data/phpspider/zhask/libs/function.php on line 181
Hadoop 如何优化Sqoop导入?_Hadoop_Sqoop_Bigdata - Fatal编程技术网

Hadoop 如何优化Sqoop导入?

Hadoop 如何优化Sqoop导入?,hadoop,sqoop,bigdata,Hadoop,Sqoop,Bigdata,可以使用哪些技术来优化sqoop导入?我尝试使用“按列拆分”来启用并行性,并根据表的数据量增加了映射器的数量。从FIFO更改为公平调度程序会有帮助吗?提前谢谢 sqoop import -D mapred.job.queue.name=$queuename -D mapred.job.name=$table_SQOOP_INITIAL_LOAD -D java.security.egd=file:/dev/../dev/urandom -D mapred.child.java.opts=" -D

可以使用哪些技术来优化sqoop导入?我尝试使用“按列拆分”来启用并行性,并根据表的数据量增加了映射器的数量。从FIFO更改为公平调度程序会有帮助吗?提前谢谢

sqoop import -D mapred.job.queue.name=$queuename -D mapred.job.name=$table_SQOOP_INITIAL_LOAD -D java.security.egd=file:/dev/../dev/urandom -D mapred.child.java.opts=" -Djava.security.egd=file:/dev/../dev/urandom" --driver com.teradata.jdbc.TeraDriver --connect jdbc:teradata://${sqoopSourceServer}/DATABASE=${sqoopSchema} --username ${sqoopUsername} --password ${sqoopPassword} --hive-import --hive-overwrite --hive-drop-import-delims --null-string '\\N' --null-non-string '\\N' --table  "$table" --num-mappers 50  --split-by column --target-dir ${hdfsTargetDirectory}$table  --hive-table ${hive_database}.$table

我没有试过,但我读过书
对于某些数据库,可以通过使用--direct来利用direct模式 参数:

sqoop import \
--connect jdbc:mysql://mysql.example.com/sqoop \
--username sqoop \
--table cities \
--direct

希望这有帮助

下面是一些常见的Sqoop性能改进技术

  • 按和边界分割查询
  • 直接的
  • 取数大小
  • 数字映射器


检查此项,谢谢Bhavesh!你是对的。然而,我认为它的供应商是特定的。