尝试更改pyspark中的数据类型时获取null

尝试更改pyspark中的数据类型时获取null,pyspark,apache-spark-sql,bigdata,apache-spark-mllib,Pyspark,Apache Spark Sql,Bigdata,Apache Spark Mllib,我有一个数据集C1.txt,它有一列名为features。所有的行都是字符串,表示x和y,即二维点的坐标。我想将类型更改为double,但当我使用以下代码执行此操作时: from pyspark.sql.types import(StructField,StringType,IntegerType,StructType,DoubleType) changedTypedf =df.withColumn("features", df["features"].cast(DoubleType()))

我有一个数据集C1.txt,它有一列名为features。所有的行都是字符串,表示x和y,即二维点的坐标。我想将类型更改为double,但当我使用以下代码执行此操作时:

from pyspark.sql.types import(StructField,StringType,IntegerType,StructType,DoubleType) 
changedTypedf =df.withColumn("features", df["features"].cast(DoubleType()))
我收到所有行的null

我不知道怎么了,请帮我解决这个问题。
谢谢

您的值之间有空格,因此如何将其转换为双精度。如果您使用的是读取CSV文件,那么如果您在读取文件时可以使用Infreschema选项,那就太好了感谢您的回复,是的,您是对的。我如何将其更改为标准格式?我有.txt文件。您的值之间有空格,因此如何将其转换为双精度格式。如果您使用的是read CSV文件,那么如果您在阅读文件时可以使用Infreschema选项,那就太好了谢谢您的回复,是的,您是对的。我如何将其更改为标准格式?我有.txt文件。