Pyspark StructType不能接受对象?

Pyspark StructType不能接受对象?,pyspark,Pyspark,我如何解决这个问题 rdd.collect() //['3e866d48b59e8ac8aece79597df9fb4c'...] rdd.toDF() //Can not infer schema for type: <type 'str'> myschema=StructType([StructField("col1", StringType(),True)]) rdd.toDF(myschema).show() rdd.collect()/['3e866d48b5

我如何解决这个问题

rdd.collect()  //['3e866d48b59e8ac8aece79597df9fb4c'...]

rdd.toDF()    //Can not infer schema for type: <type 'str'>

myschema=StructType([StructField("col1", StringType(),True)])
rdd.toDF(myschema).show()
rdd.collect()/['3e866d48b59e8ac8aece79597df9fb4c'…]
rdd.toDF()//无法推断类型的架构:
myschema=StructType([StructField(“col1”,StringType(),True)])
toDF(myschema.show())
//StructType无法接受类型中的对象“3e866d48b59e8ac8aece79597df9fb4c”

您似乎有:

rdd = sc.parallelize(['3e866d48b59e8ac8aece79597df9fb4c'])
它是一维数据结构,数据帧是二维的<代码>映射每个数字到一个元组解决了问题:

rdd.map(lambda x: (x,)).toDF().show()
+--------------------+
|                  _1|
+--------------------+
|3e866d48b59e8ac8a...|
+--------------------+

啊哈!,那是!!