Hadoop 将表格从HDFS导入spark

Hadoop 将表格从HDFS导入spark,hadoop,hdfs,apache-spark,Hadoop,Hdfs,Apache Spark,有没有一种方法可以将一个表从HDFS直接导入spark并将其存储为RDD,或者需要将其制作成文本文件才能这样做 ps-我使用sqoop(如果有关系的话)从本地系统将表放到HDFS上,当我这样做时,它以4个文件的形式出现虽然我以前没有使用过sqoop,但您可以使用它来创建配置单元表,然后您可以使用它来查询这些配置单元表,从而返回Schemards:)您可以使用read.jdbc()在sqlContext上,将表从外部数据库导入Spark数据帧

有没有一种方法可以将一个表从HDFS直接导入spark并将其存储为RDD,或者需要将其制作成文本文件才能这样做


ps-我使用sqoop(如果有关系的话)从本地系统将表放到HDFS上,当我这样做时,它以4个文件的形式出现

虽然我以前没有使用过sqoop,但您可以使用它来创建配置单元表,然后您可以使用它来查询这些配置单元表,从而返回Schemards:)

您可以使用
read.jdbc()
sqlContext
上,将表从外部数据库导入Spark数据帧