Warning: file_get_contents(/data/phpspider/zhask/data//catemap/3/apache-spark/6.json): failed to open stream: No such file or directory in /data/phpspider/zhask/libs/function.php on line 167

Warning: Invalid argument supplied for foreach() in /data/phpspider/zhask/libs/tag.function.php on line 1116

Notice: Undefined index: in /data/phpspider/zhask/libs/function.php on line 180

Warning: array_chunk() expects parameter 1 to be array, null given in /data/phpspider/zhask/libs/function.php on line 181
Hive 从Spark执行配置单元查询_Hive_Apache Spark - Fatal编程技术网

Hive 从Spark执行配置单元查询

Hive 从Spark执行配置单元查询,hive,apache-spark,Hive,Apache Spark,我试图在spark shell中执行以下代码: val sqlContext = new org.apache.spark.sql.hive.HiveContext(sc) sqlContext.sql("show tables") 执行第二行后,我得到一个异常: java.lang.NoSuchMethodError: org.apache.hadoop.hive.ql.Driver.getResults(Ljava/util/ArrayList;)Z 位于org.apache.spark.

我试图在spark shell中执行以下代码:

val sqlContext = new org.apache.spark.sql.hive.HiveContext(sc)
sqlContext.sql("show tables")
执行第二行后,我得到一个异常:

java.lang.NoSuchMethodError: org.apache.hadoop.hive.ql.Driver.getResults(Ljava/util/ArrayList;)Z 位于org.apache.spark.sql.hive.HiveContext.runHive(HiveContext.scala:305) 位于org.apache.spark.sql.hive.HiveContext.runSqlHive(HiveContext.scala:272) 位于org.apache.spark.sql.hive.execution.NativeCommand.sideEffectResult$lzycompute(NativeCommand.scala:35) 位于org.apache.spark.sql.hive.execution.NativeCommand.sideEffectResult(NativeCommand.scala:35) 位于org.apache.spark.sql.hive.execution.NativeCommand.execute(NativeCommand.scala:38) 位于org.apache.spark.sql.hive.HiveContext$QueryExecution.toRdd$lzycompute(HiveContext.scala:360) 位于org.apache.spark.sql.hive.HiveContext$QueryExecution.toRdd(HiveContext.scala:360) 位于org.apache.spark.sql.SchemaRDDLike$class.$init$(SchemaRDDLike.scala:58) 位于org.apache.spark.sql.SchemaRDD(SchemaRDD.scala:103) 位于org.apache.spark.sql.hive.HiveContext.sql(HiveContext.scala:98) 在$iwC$$iwC$$iwC$$iwC(:14)


请帮助我解决此问题。

您可能有一个与Spark库不兼容的配置单元库版本。Spark希望函数
org.apache.hadoop.hive.ql.Driver.getResults(Ljava/util/ArrayList;)
存在,但在您的配置单元库中,它不存在

您可能有一个与Spark库不兼容的配置单元库版本。Spark希望函数
org.apache.hadoop.hive.ql.Driver.getResults(Ljava/util/ArrayList;)
存在,但在您的配置单元库中,它不存在

您可以使用spark sql

要运行配置单元查询,请执行以下操作:

spark sql--主线程--num executors 6--executor内存2G --executor cores 1——驱动程序内存5G-e“从数据库中选择*表名

要运行配置单元脚本,请执行以下操作:

spark sql--主线程--num executors 6--executor内存2G --executor cores 1—驱动程序内存5G-f hivescript.hql


注意:确保配置单元配置了spark安装。

您可以使用spark sql

要运行配置单元查询,请执行以下操作:

spark sql--主线程--num executors 6--executor内存2G --executor cores 1——驱动程序内存5G-e“从数据库中选择*表名

要运行配置单元脚本,请执行以下操作:

spark sql--主线程--num executors 6--executor内存2G --executor cores 1—驱动程序内存5G-f hivescript.hql

注意:确保配置了spark安装的蜂巢