Scala 在spark sql中找不到聚合函数
我是Spark的新手,我正在尝试利用一些聚合功能,如sum或avg。我在Spark shell中的查询非常有效:Scala 在spark sql中找不到聚合函数,scala,apache-spark,apache-spark-sql,Scala,Apache Spark,Apache Spark Sql,我是Spark的新手,我正在尝试利用一些聚合功能,如sum或avg。我在Spark shell中的查询非常有效: val somestats = pf.groupBy("name").agg(sum("days")).show() 当我试图从scala项目运行它时,它不起作用,抛出一条错误消息 not found: value sum 我试图补充一点 import sqlContext.implicits._ import org.apache.spark.SparkContext._ 就
val somestats = pf.groupBy("name").agg(sum("days")).show()
当我试图从scala项目运行它时,它不起作用,抛出一条错误消息
not found: value sum
我试图补充一点
import sqlContext.implicits._
import org.apache.spark.SparkContext._
就在命令之前,但它没有帮助。我的spark版本是1.4.1。我缺少什么吗?您需要此导入:
import org.apache.spark.sql.functions._
您可以直接在上使用sum方法(groupBy返回此类型)
是的,就是这样!我在spark sql文档中未找到有关此导入的任何信息。谢谢如何设置天数的别名?因为它返回sum(days)Find out,所以toDF()是选项,
rdd.toDF(“name”,“days”)
val somestats = pf.groupBy("name").sum("days").show()