Apache spark 尝试通过spark处理配置单元表时出错

Apache spark 尝试通过spark处理配置单元表时出错,apache-spark,hive,apache-spark-sql,hiveql,Apache Spark,Hive,Apache Spark Sql,Hiveql,我想使用spark处理hive表,如下所示: 但是当运行我的程序时 我得到了这个错误: 线程“main”java.lang.IllegalArgumentException中出现异常:无法使用配置单元支持实例化SparkSession,因为找不到配置单元类。 ================================================================================= 我的代码: 配置单元表扩展应用程序上的对象spark\u{ //val wa

我想使用spark处理hive表,如下所示: 但是当运行我的程序时

我得到了这个错误:

线程“main”java.lang.IllegalArgumentException中出现异常:无法使用配置单元支持实例化SparkSession,因为找不到配置单元类。 =================================================================================

我的代码:

配置单元表扩展应用程序上的对象spark\u{

//val warehouseLocation=新文件(“spark warehouse”).getAbsolutePath

val sparksess=SparkSession

.builder()
.appName("Spark Hive Example")
.config("spark.sql.warehouse.dir", "hdfs://localhost:54310/user/hive/warehouse")
.enableHiveSupport()
.getOrCreate()
导入sparksess.implicits_

导入sparksess.sql

//==>hdfs://localhost:54310/user/hive/warehouse

sql(“从pbSales中选择*).show()

}

==================================build.sbt======================================================

版本:=“0.1”

规模厌恶:=“2.11.12”

“org.apache.spark”%%“spark核心”%sparkVersion

“org.apache.spark”%%“spark sql”%sparkVersion

“org.apache.spark”%%“spark流媒体”%sparkVersion

“org.apache.spark”%%“spark配置单元”%%“2.3.2”%”已提供”


)

sparkVersion=?sparkVersion:2.3.2
"org.apache.spark" %% "spark-hive" % "2.3.2" % "provided" 
change to 
"org.apache.spark" %% "spark-hive" % "2.3.2"