Apache spark 使用shc核心库时Spark和Hbase之间的兼容性问题

Apache spark 使用shc核心库时Spark和Hbase之间的兼容性问题,apache-spark,hbase,Apache Spark,Hbase,在使用shc核心库时,我面临Spark和Hbase之间的兼容性问题。是否有任何兼容的shc核心库或Hbase版本可以使用。下面是我使用的版本 火花-2.3 Hbase-1.2 Shc-core:Shc-core-1.1.0.2.6.5.3017-2.jar 错误 df=sqlContext.read.options(catalog=empdata).format('org.apache.spark.sql.execution.datasources.hbase').load()** py4j.p

在使用shc核心库时,我面临Spark和Hbase之间的兼容性问题。是否有任何兼容的shc核心库或Hbase版本可以使用。下面是我使用的版本

火花-2.3

Hbase-1.2

Shc-core:Shc-core-1.1.0.2.6.5.3017-2.jar

错误

df=sqlContext.read.options(catalog=empdata).format('org.apache.spark.sql.execution.datasources.hbase').load()**

py4j.protocol.Py4JJavaError:调用o31.load时出错。 :java.lang.NoClassDefFoundError:org/apache/hadoop/hbase/HBaseConfiguration**


您是否可以显示您的依赖项(例如,在pom.xml或build.sbt文件中)?我正在使用pyspark,但在我的Hadoop或Spark或Hbase配置中没有看到pom.xml或build.properties文件/您能帮助我吗?