Warning: file_get_contents(/data/phpspider/zhask/data//catemap/3/apache-spark/6.json): failed to open stream: No such file or directory in /data/phpspider/zhask/libs/function.php on line 167

Warning: Invalid argument supplied for foreach() in /data/phpspider/zhask/libs/tag.function.php on line 1116

Notice: Undefined index: in /data/phpspider/zhask/libs/function.php on line 180

Warning: array_chunk() expects parameter 1 to be array, null given in /data/phpspider/zhask/libs/function.php on line 181
Scala 聚合派生列spark_Scala_Apache Spark - Fatal编程技术网

Scala 聚合派生列spark

Scala 聚合派生列spark,scala,apache-spark,Scala,Apache Spark,我可以对名为alias的列进行聚合吗,i、 e如果总和大于1,则返回1else0 提前谢谢。我想你可以在什么时候包装另一个。否则围绕总和结果: DF.groupBy("id") .agg( sum((when(upper($"col_name") === "text", 1) .otherwise(0))) .alias("df_count") .when($"df_count"> 1, 1) .otherwise(0) ) 我想你可以在什

我可以对名为alias的列进行聚合吗,i、 e如果总和大于1,则返回
1
else
0


提前谢谢。

我想你可以在什么时候包装另一个
。否则
围绕
总和
结果:

DF.groupBy("id")
  .agg(
    sum((when(upper($"col_name") === "text", 1)
    .otherwise(0)))
    .alias("df_count")
    .when($"df_count"> 1, 1)
    .otherwise(0)
  )

我想你可以在什么时候包装另一个
。否则
围绕
总和
结果:

DF.groupBy("id")
  .agg(
    sum((when(upper($"col_name") === "text", 1)
    .otherwise(0)))
    .alias("df_count")
    .when($"df_count"> 1, 1)
    .otherwise(0)
  )

太好了,谢谢Psidom太好了,谢谢Psidom