Scala 尝试使用Spark聚合函数时无法解析符号
我想试试像这样的东西 然而,我从这样的想法中得到了警告Scala 尝试使用Spark聚合函数时无法解析符号,scala,apache-spark,intellij-idea,apache-spark-sql,Scala,Apache Spark,Intellij Idea,Apache Spark Sql,我想试试像这样的东西 然而,我从这样的想法中得到了警告 我应该怎么做?您的导入语句应该是import org.apache.spark.sql.functions.\u 其中,。是通配符导入org.apache.spark.sql.functionsobject定义了要使用的内置标准函数 然后您可以使用如下功能: df.groupBy(df("pt")).agg(max("id"), mean("encodedType")).show 您可以在此查看示例请在问题中以代码格式文本而不是图片的
我应该怎么做?您的导入语句应该是
import org.apache.spark.sql.functions.\u
其中,。
是通配符导入org.apache.spark.sql.functions
object定义了要使用的内置标准函数
然后您可以使用如下功能:
df.groupBy(df("pt")).agg(max("id"), mean("encodedType")).show
您可以在此查看示例请在问题中以代码格式文本而不是图片的形式发布代码和错误。