Hadoop 如何将拆分的HDFS文件加载到Oracle数据库?
我需要将数据从HDFS上的拆分文件加载到Oracle数据库Hadoop 如何将拆分的HDFS文件加载到Oracle数据库?,hadoop,hive,sqoop,Hadoop,Hive,Sqoop,我需要将数据从HDFS上的拆分文件加载到Oracle数据库 [user@asdf 007]$ hadoop dfs -ls hdfs://XXXXXX/split_files/test_folder/test_table_with_partitions/* Found 18 items drwxrwxrwx - bigsql hdfs 0 2017-07-24 01:00 hdfs://XXXXXX/split_files/test_folder/test_table_w
[user@asdf 007]$ hadoop dfs -ls
hdfs://XXXXXX/split_files/test_folder/test_table_with_partitions/*
Found 18 items
drwxrwxrwx - bigsql hdfs 0 2017-07-24 01:00 hdfs://XXXXXX/split_files/test_folder/test_table_with_partitions/tm=2017-07-24/dept=1
drwxrwxrwx - bigsql hdfs 0 2017-07-24 01:00 hdfs://XXXXXX/split_files/test_folder/test_table_with_partitions/tm=2017-07-24/dept=2
drwxrwxrwx - bigsql hdfs 0 2017-07-24 01:00 hdfs://XXXXXX/split_files/test_folder/test_table_with_partitions/tm=2017-07-24/dept=3
drwxrwxrwx - bigsql hdfs 0 2017-07-24 01:00 hdfs://XXXXXX/split_files/test_folder/test_table_with_partitions/tm=2017-07-24/dept=4
drwxrwxrwx - bigsql hdfs 0 2017-07-24 01:00 hdfs://XXXXXX/split_files/test_folder/test_table_with_partitions/tm=2017-07-24/dept=5
.......
如果我打开任何文件夹中的文件
hdfs://XXXXXX/split_files/test_folder/test_table_with_partitions/tm=2017-07-24/dept=5
他们没有时间和部门信息。因此,当我使用sqoop时,信息不会加载到数据库表中
如何将这些信息也加载到数据库中?sqoop中有任何选项可以实现这一点吗?从给定的详细信息来看,您引用的HDFS文件似乎来自配置单元表 要将分区配置单元表导出到RDBMS,必须使用
sqoop
的--hcatalog table
参数。下面给出了一个示例,其中对test1配置单元表进行分区,并将其导出到MySQL表test.test
sqoop export --connect jdbc:mysql://10.0.0.35:3306/test --username root --table test1 --hcatalog-table test1
要导出到Oracle数据库,您必须替换
jdbc:mysql://10.0.0.35:3306/test
byjdbc:oracle:thin:@:
你好,Shubhangi,谢谢你的帮助!!那正是我要找的。