Apache spark PySpark:如何在dataframe中为特定列填充NA值?
我有以下示例数据帧:Apache spark PySpark:如何在dataframe中为特定列填充NA值?,apache-spark,pyspark,spark-dataframe,Apache Spark,Pyspark,Spark Dataframe,我有以下示例数据帧: a | b | c | 1 | 2 | 4 | 0 | null | null| null | 3 | 4 | 我只想替换前两列(a列和b列)中的空值: 以下是创建示例数据帧的代码: rdd = sc.parallelize([(1,2,4), (0,None,None), (None,3,4)]) df2 = sqlContext.createDataFrame(rdd, ["a", "b", "c"]) 我知道如
a | b | c |
1 | 2 | 4 |
0 | null | null|
null | 3 | 4 |
我只想替换前两列(a列和b列)中的空值:
以下是创建示例数据帧的代码:
rdd = sc.parallelize([(1,2,4), (0,None,None), (None,3,4)])
df2 = sqlContext.createDataFrame(rdd, ["a", "b", "c"])
我知道如何使用以下方法替换所有空值:
df2 = df2.fillna(0)
当我尝试这一点时,我失去了第三栏:
df2 = df2.select(df2.columns[0:1]).fillna(0)
除非您的spark版本低于1.3.1,否则有一个名为
subset
的参数用于选择列使用字典填充某些列的值:
df.fillna( { 'a':0, 'b':0 } )
这是一个更好的答案,因为无论是填写一个值还是多个值都无关紧要。这难道不会给出一个只有一列的新df吗?不管怎样,我们都要在适当的地方这样做
df.fillna(0, subset=['a', 'b'])
df.fillna( { 'a':0, 'b':0 } )