Pyspark groupby和count空值

Pyspark groupby和count空值,pyspark,Pyspark,参考上面的解决方案链接,我正在尝试应用相同的逻辑,但groupby(“国家”)并获得另一列的空计数,我得到的是“column is not iterable”失败。有人能帮忙吗 df7.groupby("country").agg(*(sum(col(c).isNull().cast("int")).alias(c) for c in columns)) covid\u india\u df.select( [ 函数计数( funcs.when((fun

参考上面的解决方案链接,我正在尝试应用相同的逻辑,但groupby(“国家”)并获得另一列的空计数,我得到的是“column is not iterable”失败。有人能帮忙吗

df7.groupby("country").agg(*(sum(col(c).isNull().cast("int")).alias(c) for c in columns))
covid\u india\u df.select(
[
函数计数(
funcs.when((funcs.isnan(clm)| funcs.col(clm.isNull()),clm)
).covid_india_df列中clm的别名(clm)
]
).show()

上述方法可能会帮助您获得正确的结果。作为一个完整的示例。

您是否从pyspark sql函数导入了sum?在本例中,它在对整个列求和时起作用,但我需要按年份对其进行分组,因此我尝试了以下方法:df7.groupby(“country”).agg(F.count(F.when((F.isnan(c)| F.col(c.isNull()),c)).alias(c)表示列中的c)。show()在本例中,我收到了“所有表达式应为列”错误