Warning: file_get_contents(/data/phpspider/zhask/data//catemap/3/apache-spark/6.json): failed to open stream: No such file or directory in /data/phpspider/zhask/libs/function.php on line 167

Warning: Invalid argument supplied for foreach() in /data/phpspider/zhask/libs/tag.function.php on line 1116

Notice: Undefined index: in /data/phpspider/zhask/libs/function.php on line 180

Warning: array_chunk() expects parameter 1 to be array, null given in /data/phpspider/zhask/libs/function.php on line 181
Apache spark 使用shc核心库时Spark和Hbase之间的兼容性问题_Apache Spark_Hbase - Fatal编程技术网

Apache spark 使用shc核心库时Spark和Hbase之间的兼容性问题

Apache spark 使用shc核心库时Spark和Hbase之间的兼容性问题,apache-spark,hbase,Apache Spark,Hbase,在使用shc核心库时,我面临Spark和Hbase之间的兼容性问题。是否有任何兼容的shc核心库或Hbase版本可以使用。下面是我使用的版本 火花-2.3 Hbase-1.2 Shc-core:Shc-core-1.1.0.2.6.5.3017-2.jar 错误 df=sqlContext.read.options(catalog=empdata).format('org.apache.spark.sql.execution.datasources.hbase').load()** py4j.p

在使用shc核心库时,我面临Spark和Hbase之间的兼容性问题。是否有任何兼容的shc核心库或Hbase版本可以使用。下面是我使用的版本

火花-2.3

Hbase-1.2

Shc-core:Shc-core-1.1.0.2.6.5.3017-2.jar

错误

df=sqlContext.read.options(catalog=empdata).format('org.apache.spark.sql.execution.datasources.hbase').load()**

py4j.protocol.Py4JJavaError:调用o31.load时出错。 :java.lang.NoClassDefFoundError:org/apache/hadoop/hbase/HBaseConfiguration**


您是否可以显示您的依赖项(例如,在pom.xml或build.sbt文件中)?我正在使用pyspark,但在我的Hadoop或Spark或Hbase配置中没有看到pom.xml或build.properties文件/您能帮助我吗?