Scala中的SparkSession版本问题

Scala中的SparkSession版本问题,scala,apache-spark,Scala,Apache Spark,我已经阅读并复制了Sort Merge Join示例,但是当我尝试构建项目时,我遇到了以下错误: 对象SparkSession不是包org.apache.spark.sql的成员 我见过很多关于这个错误的问题,答案是他们使用了旧版本的Spark。然而,我在Spark的build.sbt版本2.1中提到了他们在该网站的示例中使用的内容 这是我的build.sbt: name := "Simple Project" version := "1.0" scalaVersion := "2.11.8

我已经阅读并复制了Sort Merge Join示例,但是当我尝试构建项目时,我遇到了以下错误:

对象SparkSession不是包org.apache.spark.sql的成员

我见过很多关于这个错误的问题,答案是他们使用了旧版本的Spark。然而,我在Spark的build.sbt版本2.1中提到了他们在该网站的示例中使用的内容

这是我的build.sbt:

name := "Simple Project"

version := "1.0"

scalaVersion := "2.11.8"

libraryDependencies += "org.apache.spark" %% "spark-core" % "2.1.0"

我缺少什么?

缺少Spark SQL依赖项

libraryDependencies += "org.apache.spark" %% "spark-sql" % 2.1.0