Hadoop 正在尝试使用pyspark连接到phoenix表,并出现以下错误

Hadoop 正在尝试使用pyspark连接到phoenix表,并出现以下错误,hadoop,phoenix,Hadoop,Phoenix,我的凤凰表阅读指南: sql_sc.read.format(“org.apache.phoenix.spark”).option(“table”,tablename).option(“zkUrl”,“10.0.11.21:2181”).load() 错误: 回溯(最近一次呼叫最后一次): 文件“/bdaas/exe/healthcare/hl7visualization.py”,第42行,在 hl7=phoenix_sparkdata(spark_app='hl7-app',spark_mast

我的凤凰表阅读指南: sql_sc.read.format(“org.apache.phoenix.spark”).option(“table”,tablename).option(“zkUrl”,“10.0.11.21:2181”).load() 错误: 回溯(最近一次呼叫最后一次): 文件“/bdaas/exe/healthcare/hl7visualization.py”,第42行,在 hl7=phoenix_sparkdata(spark_app='hl7-app',spark_master='local',table_name='hl7table_v2_3') 文件“/bdaas/exe/healthcare/hl7visualization.py”,第19行,在init self.dataframe=self.phoenix\u getdataframe(表名称) phoenix_getdataframe中的文件“/bdaas/exe/healthcare/hl7visualization.py”,第41行 df=self.sql_sc.read.format(“org.apache.phoenix.spark”).option(“table”,tablename).option(“zkUrl”,“10.0.11.21:2181”).load() 加载文件“/usr/hdp/2.4.2.0-258/spark/python/lib/pyspark.zip/pyspark/sql/readwriter.py”,第139行 文件“/usr/hdp/2.4.2.0-258/spark/python/lib/py4j-0.9-src.zip/py4j/java_gateway.py”,第813行,在调用 文件“/usr/hdp/2.4.2.0-258/spark/python/lib/pyspark.zip/pyspark/sql/utils.py”,第45行,deco格式 文件“/usr/hdp/2.4.2.0-258/spark/python/lib/py4j-0.9-src.zip/py4j/protocol.py”,第308行,在get\u返回值中 py4j.protocol.Py4JJavaError:调用o43.load时出错。 :java.lang.NoSuchMethodError:com.fasterxml.jackson.module.scala.desr.BigDecimalDeserializer$.HandleType()Ljava/lang/Class; 位于com.fasterxml.jackson.module.scala.desr.numberderserializers$(scalanumberderserializersmodule.scala:49) 位于com.fasterxml.jackson.module.scala.desr.numberderserializers$(scalanumberderserializersmodule.scala) 位于com.fasterxml.jackson.module.scala.desr.scalanumberderserializersmodule$class.$init$(scalanumberderserializersmodule.scala:61) 位于com.fasterxml.jackson.module.scala.DefaultScalaModule。(DefaultScalaModule.scala:19) 位于com.fasterxml.jackson.module.scala.DefaultScalaModule$(DefaultScalaModule.scala:35) 位于com.fasterxml.jackson.module.scala.DefaultScalaModule$(DefaultScalaModule.scala) 位于org.apache.spark.rdd.RDDOperationScope$(RDDOperationScope.scala:81) 位于org.apache.spark.rdd.RDDOperationScope$(RDDOperationScope.scala) 位于org.apache.spark.SparkContext.withScope(SparkContext.scala:714) 位于org.apache.spark.SparkContext.newAPIHadoopRDD(SparkContext.scala:1152) 在org.apache.phoenix.spark.PhoenixRDD.(PhoenixRDD.scala:46) 位于org.apache.phoenix.spark.PhoenixRelation.schema(PhoenixRelation.scala:50) 位于org.apache.spark.sql.execution.datasources.LogicalRelation.(LogicalRelation.scala:37) 位于org.apache.spark.sql.DataFrameReader.load(DataFrameReader.scala:125) 在sun.reflect.NativeMethodAccessorImpl.invoke0(本机方法)处 在sun.reflect.NativeMethodAccessorImpl.invoke(NativeMethodAccessorImpl.java:57)中 在sun.reflect.DelegatingMethodAccessorImpl.invoke(DelegatingMethodAccessorImpl.java:43)中 位于java.lang.reflect.Method.invoke(Method.java:606) 位于py4j.reflection.MethodInvoker.invoke(MethodInvoker.java:231) 位于py4j.reflection.ReflectionEngine.invoke(ReflectionEngine.java:381) 在py4j.Gateway.invoke处(Gateway.java:259) 位于py4j.commands.AbstractCommand.invokeMethod(AbstractCommand.java:133) 在py4j.commands.CallCommand.execute(CallCommand.java:79) 在py4j.GatewayConnection.run处(GatewayConnection.java:209)
在java.lang.Thread.run(Thread.java:745)

检查是否安装了正确的依赖项jar文件。似乎您缺少了快速XML JacksonTank来响应,我已经根据phoenix文档在spark defaults conf中添加了JAR。但是我找不到任何关于这个快的东西。