Scala 聚合派生列spark
我可以对名为alias的列进行聚合吗,i、 e如果总和大于1,则返回Scala 聚合派生列spark,scala,apache-spark,Scala,Apache Spark,我可以对名为alias的列进行聚合吗,i、 e如果总和大于1,则返回1else0 提前谢谢。我想你可以在什么时候包装另一个。否则围绕总和结果: DF.groupBy("id") .agg( sum((when(upper($"col_name") === "text", 1) .otherwise(0))) .alias("df_count") .when($"df_count"> 1, 1) .otherwise(0) ) 我想你可以在什
1
else0
提前谢谢。我想你可以在什么时候包装另一个
。否则
围绕总和
结果:
DF.groupBy("id")
.agg(
sum((when(upper($"col_name") === "text", 1)
.otherwise(0)))
.alias("df_count")
.when($"df_count"> 1, 1)
.otherwise(0)
)
我想你可以在什么时候包装另一个
。否则
围绕总和
结果:
DF.groupBy("id")
.agg(
sum((when(upper($"col_name") === "text", 1)
.otherwise(0)))
.alias("df_count")
.when($"df_count"> 1, 1)
.otherwise(0)
)
太好了,谢谢Psidom太好了,谢谢Psidom