Hadoop Spark和HBase版本兼容性

Hadoop Spark和HBase版本兼容性,hadoop,apache-spark,hbase,hadoop2,Hadoop,Apache Spark,Hbase,Hadoop2,我正在尝试集成Spark和Hbase 1.2.4。我目前正在使用hadoop 2.7.3。有人能告诉我Spark的哪个版本与HBase 1.2.4兼容吗?请查看下面的链接以了解详细的兼容性表 查看下面的链接以了解详细的兼容性表 我正在使用spark 1.6版和hbase 1.2版。因此,我认为spark版本1.6或1.6.x肯定会与hbase 1.2.4配合使用。我将spark版本1.6与hbase版本1.2配合使用。因此,我认为spark版本1.6或1.6.x肯定会与hbase 1.2.4配合

我正在尝试集成Spark和Hbase 1.2.4。我目前正在使用hadoop 2.7.3。有人能告诉我Spark的哪个版本与HBase 1.2.4兼容吗?

请查看下面的链接以了解详细的兼容性表


查看下面的链接以了解详细的兼容性表


我正在使用spark 1.6版和hbase 1.2版。因此,我认为spark版本1.6或1.6.x肯定会与hbase 1.2.4配合使用。

我将spark版本1.6与hbase版本1.2配合使用。因此,我认为spark版本1.6或1.6.x肯定会与hbase 1.2.4配合使用。

我试图配置spark 1.6.3,但出现错误:错误[main]spark.SparkContext:初始化SparkContext时出错。java.net.ConnectException:从master/10.0.0.1到master:8021的调用因连接异常而失败。我正在使用hduser@master:~$HBASE\u PATH=
/usr/local/HBASE/HBASE-1.2.4/bin/HBASE classpath
。hduser@master:~$./spark shell—驱动程序类路径$HBASE\u从spark shell连接HBASE的路径。这是连接hbase的正确程序,还是我必须做其他事情。感谢您的回复。Siddhartha,您正在使用哪个版本的hadoop?hadoop版本2.7.2支持Siddhartha、Spark 1.6.3和HBase 1.2.0协同工作。Spark 2.1.0和HBase 1.2.4也可以正常工作。我试图配置Spark 1.6.3,但出现错误:错误[main]Spark.SparkContext:初始化SparkContext时出错。java.net.ConnectException:从master/10.0.0.1到master:8021的调用因连接异常而失败。我正在使用hduser@master:~$HBASE\u PATH=
/usr/local/HBASE/HBASE-1.2.4/bin/HBASE classpath
。hduser@master:~$./spark shell—驱动程序类路径$HBASE\u从spark shell连接HBASE的路径。这是连接hbase的正确程序,还是我必须做其他事情。感谢您的回复。Siddhartha,您使用的hadoop版本是什么?hadoop版本2.7.2支持Siddhartha、Spark 1.6.3和HBase 1.2.0协同工作。Spark 2.1.0和HBase 1.2.4也可以正常工作。感谢您提供的信息。感谢您提供的信息。