Hive 从Spark执行配置单元查询
我试图在spark shell中执行以下代码:Hive 从Spark执行配置单元查询,hive,apache-spark,Hive,Apache Spark,我试图在spark shell中执行以下代码: val sqlContext = new org.apache.spark.sql.hive.HiveContext(sc) sqlContext.sql("show tables") 执行第二行后,我得到一个异常: java.lang.NoSuchMethodError: org.apache.hadoop.hive.ql.Driver.getResults(Ljava/util/ArrayList;)Z 位于org.apache.spark.
val sqlContext = new org.apache.spark.sql.hive.HiveContext(sc)
sqlContext.sql("show tables")
执行第二行后,我得到一个异常:
java.lang.NoSuchMethodError:
org.apache.hadoop.hive.ql.Driver.getResults(Ljava/util/ArrayList;)Z
位于org.apache.spark.sql.hive.HiveContext.runHive(HiveContext.scala:305)
位于org.apache.spark.sql.hive.HiveContext.runSqlHive(HiveContext.scala:272)
位于org.apache.spark.sql.hive.execution.NativeCommand.sideEffectResult$lzycompute(NativeCommand.scala:35)
位于org.apache.spark.sql.hive.execution.NativeCommand.sideEffectResult(NativeCommand.scala:35)
位于org.apache.spark.sql.hive.execution.NativeCommand.execute(NativeCommand.scala:38)
位于org.apache.spark.sql.hive.HiveContext$QueryExecution.toRdd$lzycompute(HiveContext.scala:360)
位于org.apache.spark.sql.hive.HiveContext$QueryExecution.toRdd(HiveContext.scala:360)
位于org.apache.spark.sql.SchemaRDDLike$class.$init$(SchemaRDDLike.scala:58)
位于org.apache.spark.sql.SchemaRDD(SchemaRDD.scala:103)
位于org.apache.spark.sql.hive.HiveContext.sql(HiveContext.scala:98)
在$iwC$$iwC$$iwC$$iwC(:14)
请帮助我解决此问题。您可能有一个与Spark库不兼容的配置单元库版本。Spark希望函数
org.apache.hadoop.hive.ql.Driver.getResults(Ljava/util/ArrayList;)
存在,但在您的配置单元库中,它不存在 您可能有一个与Spark库不兼容的配置单元库版本。Spark希望函数org.apache.hadoop.hive.ql.Driver.getResults(Ljava/util/ArrayList;)
存在,但在您的配置单元库中,它不存在 您可以使用spark sql
要运行配置单元查询,请执行以下操作:
spark sql--主线程--num executors 6--executor内存2G
--executor cores 1——驱动程序内存5G-e“从数据库中选择*表名
要运行配置单元脚本,请执行以下操作:
spark sql--主线程--num executors 6--executor内存2G
--executor cores 1—驱动程序内存5G-f hivescript.hql
注意:确保配置单元配置了spark安装。您可以使用spark sql 要运行配置单元查询,请执行以下操作: spark sql--主线程--num executors 6--executor内存2G --executor cores 1——驱动程序内存5G-e“从数据库中选择*表名 要运行配置单元脚本,请执行以下操作: spark sql--主线程--num executors 6--executor内存2G --executor cores 1—驱动程序内存5G-f hivescript.hql 注意:确保配置了spark安装的蜂巢