Java 为什么我的spark connector包的maven子依赖版本与其他版本不同
我试图使用现有项目中的pom文件,但遇到错误“无法解析org.yaml:snakeyaml:1.15” 关于这个错误,我发现com.datastax.spark:spark-cassandra-connector_2.11:2.5.0使用了一对依赖项,并且使用了由公司代理隔离的snakeyaml:1.15。有没有一种方法可以指定我想要使用snakeyaml:1.16的给定maven依赖项 我不明白的一件事是,我查看了同样使用com.datastax.spark:spark-cassandra-connector_2.11:2.5.0的参考项目,它使用的是更新的com.datastax.oss:java驱动核心着色:4.9.0,不再需要snakeyaml:1.15 其中,我使用的是旧的com.datastax.oss:java驱动核心:4.5.0 为什么它在pom中工作?对于com.datastax.spark,我们有相同的maven列表版本:spark-cassandra-connector_2.11:2.5.0 我看到它有一些排除项,但没有一个解决snake yaml版本或其任何父依赖项 pom文件中是否有另一部分解决了我丢失的问题?请告知 我的pomJava 为什么我的spark connector包的maven子依赖版本与其他版本不同,java,maven,apache-spark,cassandra,Java,Maven,Apache Spark,Cassandra,我试图使用现有项目中的pom文件,但遇到错误“无法解析org.yaml:snakeyaml:1.15” 关于这个错误,我发现com.datastax.spark:spark-cassandra-connector_2.11:2.5.0使用了一对依赖项,并且使用了由公司代理隔离的snakeyaml:1.15。有没有一种方法可以指定我想要使用snakeyaml:1.16的给定maven依赖项 我不明白的一件事是,我查看了同样使用com.datastax.spark:spark-cassandra-c
<scala.compat.version>2.11</scala.compat.version>
<spark.cassandra.version>2.5.0</spark.cassandra.version>
<dependency>
<groupId>com.datastax.spark</groupId>
<artifactId>spark-cassandra-connector_${scala.compat.version}</artifactId>
<version>${spark.cassandra.version}</version>
</dependency>
2.11
2.5.0
com.datasax.spark
然而,另一个项目正在使用正确的着色版本com.datastax.oss:java驱动程序核心着色:4.9.0,这消除了snake依赖性
工作聚甲醛
<scala.compat.version>2.11</scala.compat.version>
<spark.cassandra.version>2.5.0</spark.cassandra.version>
<dependency>
<artifactId>spark-cassandra-connector_${scala.compat.version}</artifactId>
<exclusions>
<exclusion>
<groupId>com.google.guava</groupId>
<artifactId>guava</artifactId>
</exclusion>
<exclusion>
<artifactId>netty-all</artifactId>
<groupId>io.netty</groupId>
</exclusion>
<exclusion>
<groupId>org.scala-lang</groupId>
<artifactId>scala-library</artifactId>
</exclusion>
</exclusions>
<groupId>com.datastax.spark</groupId>
<version>${spark.cassandra.version}</version>
</dependency>
2.11
2.5.0
在POM的
部分添加一个条目,在其中指定所需的snakeyaml版本
这将覆盖snakeyaml的所有可传递版本定义。我建议切换到SCC 2.5.2(或至少2.5.1)-有关于依赖性的修复,它已将驱动程序升级到4.10.0等。另一种可能是使用spark cassandra连接器组件,包含所有依赖项并着色