Scala 如何在Schemard上进行分组

Scala 如何在Schemard上进行分组,scala,apache-spark,apache-spark-sql,Scala,Apache Spark,Apache Spark Sql,假设我有一个SchemaRDD tableRDD。如何按特定列分组,并将结果集的count(*)作为countGrouped 我正在尝试类似于: tableRDD.groupBy('colname)(?).collect() 我无法理解我的聚合函数应该是什么(由??表示)如果是像*这样的非列,您只需将其放在引号中即可。因此,您的查询如下所示: tableRDD.groupBy('colname)(count("*") as 'countGrouped).collect()

假设我有一个SchemaRDD tableRDD。如何按特定列分组,并将结果集的
count(*)作为countGrouped

我正在尝试类似于:

tableRDD.groupBy('colname)(?).collect()


我无法理解我的聚合函数应该是什么(由
??
表示)

如果是像
*
这样的非列,您只需将其放在引号中即可。因此,您的查询如下所示:

tableRDD.groupBy('colname)(count("*") as 'countGrouped).collect()