Scala 对象SparkSession不是包org.apache.spark.sql的成员

Scala 对象SparkSession不是包org.apache.spark.sql的成员,scala,apache-spark,apache-spark-sql,spark-dataframe,hadoop2,Scala,Apache Spark,Apache Spark Sql,Spark Dataframe,Hadoop2,我正在尝试在SparkSession中使用最新的Spark api 当我导入包时,我的eclipse在附件中显示了一个错误 我使用的是2.10.6 scala编译器 请帮我解决这个问题 您在Maven中指定的版本太旧。在Spark 2.0中引入。您需要使用Spark 2.0.0或更高版本来导入它。以下问题的答案可能有助于您配置详细信息: 您在Maven中指定的版本太旧。在Spark 2.0中引入。您需要使用Spark 2.0.0或更高版本来导入它。以下问题的答案可能有助于您配置详细信息: sp

我正在尝试在SparkSession中使用最新的Spark api

当我导入包时,我的eclipse在附件中显示了一个错误

我使用的是2.10.6 scala编译器

请帮我解决这个问题


您在Maven中指定的版本太旧。在Spark 2.0中引入。您需要使用Spark 2.0.0或更高版本来导入它。以下问题的答案可能有助于您配置详细信息:


您在Maven中指定的版本太旧。在Spark 2.0中引入。您需要使用Spark 2.0.0或更高版本来导入它。以下问题的答案可能有助于您配置详细信息:


spark sql和spark core版本不一致。尝试使用cdh或apache。@mrsrinivas和-它们都非常旧,因此不包含新的
SparkSeision
-使用2.0.0或更高版本您的spark sql和spark core版本不一致。尝试使用cdh或apache。@mrsrinivas和-它们都非常旧,因此不包含新的
SparkSeision
-使用2.0.0或更高版本