实例化'时出错;org.apache.spark.sql.hive.HiveSessionState';:&引用;

实例化'时出错;org.apache.spark.sql.hive.HiveSessionState';:&引用;,hive,pyspark,pyspark-sql,Hive,Pyspark,Pyspark Sql,打印SQL数据库的架构时,出现以下错误: 使用SparkSession而不是SQLContext。我们也要这样做: sqlContext = SparkSession.builder.master("local[*]").appName("appName"). config("spark.sql.warehouse.dir", "./spark-warehouse").getOrCreate() 代码的其余部分应正常工作。 您可以从sqlContex

打印SQL数据库的架构时,出现以下错误:


使用SparkSession而不是SQLContext。我们也要这样做:

sqlContext = SparkSession.builder.master("local[*]").appName("appName").
                      config("spark.sql.warehouse.dir", "./spark-warehouse").getOrCreate()
代码的其余部分应正常工作。

您可以从
sqlContext
中调整变量名,以反映所持有的引用。

Hi,如果您觉得答案令人满意,请勾选箭头并可能向上投票,以表示感谢。Ekaba答案对我有效。要补充的是,错误的原因是由于shell.py文件中存在.enableHiveSupport()。好的。伟大的请用你的观察更新我的答案。这对其他人是有帮助的。还有,别忘了投上一票:我在这里更新了我的观察结果@EkabaBisong-你是我的英雄!!几个小时以来,我一直在努力在docker容器中获得spark提交工作,而这个hivebuilder错误是最后一个需要修复的部分。非常感谢。