Hadoop 如何将拆分的HDFS文件加载到Oracle数据库?

Hadoop 如何将拆分的HDFS文件加载到Oracle数据库?,hadoop,hive,sqoop,Hadoop,Hive,Sqoop,我需要将数据从HDFS上的拆分文件加载到Oracle数据库 [user@asdf 007]$ hadoop dfs -ls hdfs://XXXXXX/split_files/test_folder/test_table_with_partitions/* Found 18 items drwxrwxrwx - bigsql hdfs 0 2017-07-24 01:00 hdfs://XXXXXX/split_files/test_folder/test_table_w

我需要将数据从HDFS上的拆分文件加载到Oracle数据库

[user@asdf 007]$ hadoop dfs -ls 
hdfs://XXXXXX/split_files/test_folder/test_table_with_partitions/*
Found 18 items
drwxrwxrwx   - bigsql hdfs          0 2017-07-24 01:00 hdfs://XXXXXX/split_files/test_folder/test_table_with_partitions/tm=2017-07-24/dept=1
drwxrwxrwx   - bigsql hdfs          0 2017-07-24 01:00 hdfs://XXXXXX/split_files/test_folder/test_table_with_partitions/tm=2017-07-24/dept=2
drwxrwxrwx   - bigsql hdfs          0 2017-07-24 01:00 hdfs://XXXXXX/split_files/test_folder/test_table_with_partitions/tm=2017-07-24/dept=3
drwxrwxrwx   - bigsql hdfs          0 2017-07-24 01:00 hdfs://XXXXXX/split_files/test_folder/test_table_with_partitions/tm=2017-07-24/dept=4
drwxrwxrwx   - bigsql hdfs          0 2017-07-24 01:00 hdfs://XXXXXX/split_files/test_folder/test_table_with_partitions/tm=2017-07-24/dept=5
.......
如果我打开任何文件夹中的文件

hdfs://XXXXXX/split_files/test_folder/test_table_with_partitions/tm=2017-07-24/dept=5
他们没有时间和部门信息。因此,当我使用sqoop时,信息不会加载到数据库表中


如何将这些信息也加载到数据库中?sqoop中有任何选项可以实现这一点吗?

从给定的详细信息来看,您引用的HDFS文件似乎来自配置单元表

要将分区配置单元表导出到RDBMS,必须使用
sqoop
--hcatalog table
参数。下面给出了一个示例,其中对test1配置单元表进行分区,并将其导出到MySQL表test.test

sqoop export --connect jdbc:mysql://10.0.0.35:3306/test --username root --table test1 --hcatalog-table test1

要导出到Oracle数据库,您必须替换
jdbc:mysql://10.0.0.35:3306/test
by
jdbc:oracle:thin:@:

你好,Shubhangi,谢谢你的帮助!!那正是我要找的。