Warning: file_get_contents(/data/phpspider/zhask/data//catemap/0/hadoop/6.json): failed to open stream: No such file or directory in /data/phpspider/zhask/libs/function.php on line 167

Warning: Invalid argument supplied for foreach() in /data/phpspider/zhask/libs/tag.function.php on line 1116

Notice: Undefined index: in /data/phpspider/zhask/libs/function.php on line 180

Warning: array_chunk() expects parameter 1 to be array, null given in /data/phpspider/zhask/libs/function.php on line 181
sqoop导出mysql分区_Mysql_Hadoop_Hive_Sqoop - Fatal编程技术网

sqoop导出mysql分区

sqoop导出mysql分区,mysql,hadoop,hive,sqoop,Mysql,Hadoop,Hive,Sqoop,我正在尝试使用sqoop将分区配置单元表导出到mysql中 起初我试着 $sqoop export --connect jdbc:mysql://<server addr>/<db name> --username <user name> -P --table source_edge_daily --export-dir /path/to/table/<table name> --input-fields-terminated-by '\t' --

我正在尝试使用sqoop将分区配置单元表导出到mysql中

起初我试着

$sqoop export --connect jdbc:mysql://<server addr>/<db name> --username <user name> -P --table source_edge_daily --export-dir /path/to/table/<table name> --input-fields-terminated-by '\t' --verbose

我还尝试在没有分区键的情况下重新创建mysql表,创建一个分区mysql表,但所有操作都失败了,出现了相同的错误消息

Sqoop当前不支持加载分区表,并且仍在运行。所以,在解决这个问题之前,您的第一个解决方案不会起作用


直接指定分区目录的问题是,您将丢失有关分区的信息,因此您需要创建一个不包含分区列的临时MySQL表,然后您可以轻松地将数据加载到此表中。最后,您只需要从这个临时表插入到真正的表中。

Sqoop目前不支持加载分区表,并且仍然支持。所以,在解决这个问题之前,您的第一个解决方案不会起作用

直接指定分区目录的问题是,您将丢失有关分区的信息,因此您需要创建一个不包含分区列的临时MySQL表,然后您可以轻松地将数据加载到此表中。最后,您只需要从这个临时表插入到您的真表中。

sqoop导出--连接jdbc:mysql://--username-p--表源\u边缘\u每日--导出dir/path/to/table/--输入字段以'\t'--verbose结尾。您是否按原样运行了此命令?sqoop export--connect jdbc:mysql://--username-P--table source\u edge\u daily--export dir/path/to/table/--input字段以'\t'--verbose结尾。您是否按原样运行此命令?
Open failed for file /path/to/table/<table name>/<partition name>, attempt to open a directory
$sqoop export --connect jdbc:mysql://<server addr>/<db name> --username <user name> -P --table source_edge_daily --export-dir /path/to/table/<table name>/<partition name> --input-fields-terminated-by '\t' --verbose 
at com.cloudera.sqoop.mapreduce.CombineShimRecordReader.getCurrentKey(CombineShimRecordReader.java:100)
at com.cloudera.sqoop.mapreduce.CombineShimRecordReader.getCurrentKey(CombineShimRecordReader.java:43)
at org.apache.hadoop.mapreduce.lib.input.CombineFileRecordReader.getCurrentKey(CombineFileRecordReader.java:75)
at org.apache.hadoop.mapred.MapTask$NewTrackingRecordReader.getCurrentKey(MapTask.java:452)
at org.apache.hadoop.mapreduce.MapContext.getCurrentKey(MapContext.java:57)
at org.apache.hadoop.mapreduce.Mapper.run(Mapper.java:144)
at com.cloudera.sqoop.mapreduce.AutoProgressMapper.run(AutoProgressMapper.java:189)
at org.apache.hadoop.mapred.MapTask.runNewMapper(MapTask.java:668)
at org.apache.hadoop.mapred.MapTask.run(MapTask.java:334)
at org.apache.hadoop.mapred.Child$4.run(Child.java:270)
at java.security.AccessController.doPrivileged(Native Method)
at javax.security.auth.Subject.doAs(Subject.java:396)
at org.apache.hadoop.security.UserGroupInformation.doAs(UserGroupInformation.java:1109)
at org.apache.hadoop.mapred.Child.main(Child.java:264)