使用Scala在Spark中将RDD转换为数据帧时拆分Txt文件中的数据时出现问题
我以RDD的形式从文本文件中读取数据并将其转换为数据帧,但没有得到所需的输出 代码-使用Scala在Spark中将RDD转换为数据帧时拆分Txt文件中的数据时出现问题,scala,apache-spark,spark-dataframe,Scala,Apache Spark,Spark Dataframe,我以RDD的形式从文本文件中读取数据并将其转换为数据帧,但没有得到所需的输出 代码- val myFile = sc.textFile("car.txt") val df = myFile.map(_.split(" ")).map(line => Text(line(0))).toDF() df.show() 其中Text是case类 案例类- case class Text(field: String) car.txt文件中的数据- hyundai honda honda maru
val myFile = sc.textFile("car.txt")
val df = myFile.map(_.split(" ")).map(line => Text(line(0))).toDF()
df.show()
其中Text是case类
案例类-
case class Text(field: String)
car.txt文件中的数据-
hyundai honda
honda maruti
maruti honda
执行时输出-
+-------+
| field|
+-------+
|hyundai|
| honda|
| maruti|
+-------+
为什么我没有从数据框中的文本文件中获取所有数据?这是因为您正在
拆分空间中的数据,然后只输出该数据的第一个元素(第一个单词)->行(0)
如果您只需要行,那么您可以剪切.map(u.split(“”)
,然后只使用行(no(0)
)这是因为您正在拆分空间上的数据,然后只输出该行的第一个元素(第一个单词)->行(0)
如果您只需要这些行,那么您可以剪切.map(u.split(“”)
,然后只使用行
(无(0)
)