PySpark将文本文件读取到单列数据帧中
我有一个文本文件,我想读入数据框。我更喜欢把它读成一列。这一直有效,直到我发现一个文件中有PySpark将文本文件读取到单列数据帧中,pyspark,Pyspark,我有一个文本文件,我想读入数据框。我更喜欢把它读成一列。这一直有效,直到我发现一个文件中有^ raw = spark.read.option("delimiter", "^").csv(data_dir + pair[0]) 但是,唉,一天下来,第二天就打破了这种模式。我没有看到分隔符None的选项。有没有一种有效的方法可以做到这一点?你有没有考虑过改用spark.read.textFile?它可以执行您希望它执行的操作。'DataFrameReader'对象没有属性“textFile”spa
^
raw = spark.read.option("delimiter", "^").csv(data_dir + pair[0])
但是,唉,一天下来,第二天就打破了这种模式。我没有看到
分隔符None
的选项。有没有一种有效的方法可以做到这一点?你有没有考虑过改用spark.read.textFile
?它可以执行您希望它执行的操作。'DataFrameReader'对象没有属性“textFile”spark
在这种情况下将是spark ContextTry@BrianDolan