Pyspark 使用python将空列添加到Spark中的dataframe
我有一个数据帧,我想用另一个数据帧创建一个unionAll。问题是第二个数据帧的列数比第一个多。有没有办法在我的第一个数据框中添加三列,其中只有空单元格?使用spark数据框的Pyspark 使用python将空列添加到Spark中的dataframe,pyspark,rdd,spark-dataframe,Pyspark,Rdd,Spark Dataframe,我有一个数据帧,我想用另一个数据帧创建一个unionAll。问题是第二个数据帧的列数比第一个多。有没有办法在我的第一个数据框中添加三列,其中只有空单元格?使用spark数据框的withColumn对象 DF.withColumn(“newcoln”,“Value”)DF.withColumn(“NewColumn”),lit(None).cast(StringType())也许这会有帮助 要添加字符串类型列,请执行以下操作: from pyspark.sql.types import Strin
withColumn
对象DF.withColumn(“newcoln”,“Value”)
DF.withColumn(“NewColumn”),lit(None).cast(StringType())也许这会有帮助
要添加字符串类型列,请执行以下操作:
from pyspark.sql.types import StringType
df.withColumn("COL_NAME", lit(None).cast(StringType()))
添加整数类型的步骤
from pyspark.sql.types import IntegerType
df.withColumn("COL_NAME", lit(0).cast(IntegerType()))
如何将该值设置为blanc列?如何使用它。withColumn('NewCol',lit(None).cast(StringType()))我无法理解您的意思。如果在此语句之后执行df.fillna(0),则可能会重复。这不仅仅是一个观察:在第二个示例中,导入的类型与使用的转换类型不匹配。