Pyspark 使用python将空列添加到Spark中的dataframe

Pyspark 使用python将空列添加到Spark中的dataframe,pyspark,rdd,spark-dataframe,Pyspark,Rdd,Spark Dataframe,我有一个数据帧,我想用另一个数据帧创建一个unionAll。问题是第二个数据帧的列数比第一个多。有没有办法在我的第一个数据框中添加三列,其中只有空单元格?使用spark数据框的withColumn对象 DF.withColumn(“newcoln”,“Value”)DF.withColumn(“NewColumn”),lit(None).cast(StringType())也许这会有帮助 要添加字符串类型列,请执行以下操作: from pyspark.sql.types import Strin

我有一个数据帧,我想用另一个数据帧创建一个unionAll。问题是第二个数据帧的列数比第一个多。有没有办法在我的第一个数据框中添加三列,其中只有空单元格?

使用spark数据框的
withColumn
对象
DF.withColumn(“newcoln”,“Value”)
DF.withColumn(“NewColumn”),lit(None).cast(StringType())

也许这会有帮助

要添加字符串类型列,请执行以下操作:

from pyspark.sql.types import StringType

df.withColumn("COL_NAME", lit(None).cast(StringType()))
添加整数类型的步骤

from pyspark.sql.types import IntegerType

df.withColumn("COL_NAME", lit(0).cast(IntegerType()))

如何将该值设置为blanc列?如何使用它。withColumn('NewCol',lit(None).cast(StringType()))我无法理解您的意思。如果在此语句之后执行df.fillna(0),则可能会重复。这不仅仅是一个观察:在第二个示例中,导入的类型与使用的转换类型不匹配。