Scala 如何在Schemard上进行分组
假设我有一个SchemaRDD tableRDD。如何按特定列分组,并将结果集的Scala 如何在Schemard上进行分组,scala,apache-spark,apache-spark-sql,Scala,Apache Spark,Apache Spark Sql,假设我有一个SchemaRDD tableRDD。如何按特定列分组,并将结果集的count(*)作为countGrouped 我正在尝试类似于: tableRDD.groupBy('colname)(?).collect() 我无法理解我的聚合函数应该是什么(由??表示)如果是像*这样的非列,您只需将其放在引号中即可。因此,您的查询如下所示: tableRDD.groupBy('colname)(count("*") as 'countGrouped).collect()
count(*)作为countGrouped
我正在尝试类似于:
tableRDD.groupBy('colname)(?).collect()
我无法理解我的聚合函数应该是什么(由
??表示)如果是像*
这样的非列,您只需将其放在引号中即可。因此,您的查询如下所示:
tableRDD.groupBy('colname)(count("*") as 'countGrouped).collect()