Hive Spark执行引擎上的配置单元失败

Hive Spark执行引擎上的配置单元失败,hive,Hive,我正在Spark执行引擎上尝试配置单元。我正在使用Hadoop2.6.0、配置单元1.2.1、Spark 1.6.0。配置单元已在mapreduce引擎中成功运行。现在我正在Spark引擎上尝试配置单元。每个配置单元都正常工作。在配置单元中,我将属性设置为 set hive.execution.engine=spark; set spark.master=spark://INBBRDSSVM294:7077; set spark.executor.memory=2g;

我正在Spark执行引擎上尝试配置单元。我正在使用Hadoop2.6.0、配置单元1.2.1、Spark 1.6.0。配置单元已在mapreduce引擎中成功运行。现在我正在Spark引擎上尝试配置单元。每个配置单元都正常工作。在配置单元中,我将属性设置为

set hive.execution.engine=spark;
set spark.master=spark://INBBRDSSVM294:7077;
set spark.executor.memory=2g;             
set spark.serializer=org.apache.spark.serializer.KryoSerializer;
在hive库中添加了spark-asembly jar

我正在尝试这个命令

select count(*) from sample;
我越来越像这样了

Starting Spark Job = b1410161-a414-41a9-a45a-cb7109028fff
Status: SENT
Failed to execute spark task, with exception 'java.lang.IllegalStateException(RPC channel is closed.)'
FAILED: Execution Error, return code 1 from org.apache.hadoop.hive.ql.exec.spark.SparkTask

如果我缺少任何其他需要的设置,请指导我。

我认为问题可能是因为您使用了不兼容的版本。如果您在上看到版本兼容性,您将看到这两个特定版本无法确保正确工作

我建议您更改版本并使用他们建议的兼容版本。我也有同样的问题,我在更改兼容版本时解决了这个问题