Apache spark java中的火花,由以下原因引起:com.fasterxml.jackson.databind.JsonMappingException:不兼容的jackson版本:2.9.4

Apache spark java中的火花,由以下原因引起:com.fasterxml.jackson.databind.JsonMappingException:不兼容的jackson版本:2.9.4,apache-spark,jackson,spark-streaming,jackson-databind,Apache Spark,Jackson,Spark Streaming,Jackson Databind,我正在尝试用Java运行一个简单的spark流媒体应用程序。但它在ssc.receiverStream失败,显示了由以下原因引起的:com.fasterxml.jackson.databind.JsonMappingException:不兼容的jackson版本:2.9.4。我检查了我的杰克逊版本,它是2.6.0。2.9.4是怎么来的?下面的屏幕截图是我正在使用的所有外部库。与这个问题相关的大多数其他答案都在scala中。我如何用java解决这个问题 SparkConf sparkConf =

我正在尝试用Java运行一个简单的spark流媒体应用程序。但它在
ssc.receiverStream
失败,显示了由以下原因引起的
:com.fasterxml.jackson.databind.JsonMappingException:不兼容的jackson版本:2.9.4
。我检查了我的杰克逊版本,它是2.6.0。2.9.4是怎么来的?下面的屏幕截图是我正在使用的所有外部库。与这个问题相关的大多数其他答案都在scala中。我如何用java解决这个问题

SparkConf sparkConf = new SparkConf().setAppName("myCustomizedReceiver").setMaster("local[2]");
JavaStreamingContext ssc = new JavaStreamingContext(sparkConf, new Duration(1000));
JavaReceiverInputDStream<String> lines = ssc.receiverStream(new myCustomizedReceiver());
SparkConf SparkConf=new SparkConf().setAppName(“myCustomizedReceiver”).setMaster(“local[2]”;
JavaStreamingContext ssc=新的JavaStreamingContext(sparkConf,新的持续时间(1000));
javaReceiverInputdStreamlines=ssc.receiverStream(新的myCustomizedReceiver());

您是如何运行此代码的?spark/hadoop libs可能已经为您提供了一些jackson罐子。最后:你为什么不升级你自己的jackson依赖项?你可以通过运行
mvn dependency:tree
@ernest_k检查实际使用的版本,我尝试升级到2.9.4。但它显示了同样的错误。