Java apache cassandra依赖性问题
我正在学习一个教程来了解卡桑德拉是如何工作的, 但我有一个进口问题Java apache cassandra依赖性问题,java,eclipse,maven,apache-spark,Java,Eclipse,Maven,Apache Spark,我正在学习一个教程来了解卡桑德拉是如何工作的, 但我有一个进口问题 import static com.datastax.spark.connector.CassandraJavaUtil.*; 无法识别此导入,尤其是此行: javaFunctions(productsRDD, Product.class).saveToCassandra("java_api", "products"); 我的pom.xml如下所示: <project xmlns="http://maven.apach
import static com.datastax.spark.connector.CassandraJavaUtil.*;
无法识别此导入,尤其是此行:
javaFunctions(productsRDD, Product.class).saveToCassandra("java_api", "products");
我的pom.xml如下所示:
<project xmlns="http://maven.apache.org/POM/4.0.0" xmlns:xsi="http://www.w3.org/2001/XMLSchema-instance"
xsi:schemaLocation="http://maven.apache.org/POM/4.0.0 http://maven.apache.org/xsd/maven-4.0.0.xsd">
<modelVersion>4.0.0</modelVersion>
<groupId>org.sparkexamples</groupId>
<artifactId>cassandraExample</artifactId>
<version>0.0.1-SNAPSHOT</version>
<packaging>jar</packaging>
<name>cassandraExample</name>
<url>http://maven.apache.org</url>
<properties>
<project.build.sourceEncoding>UTF-8</project.build.sourceEncoding>
</properties>
<dependencies>
<dependency>
<groupId>junit</groupId>
<artifactId>junit</artifactId>
<version>3.8.1</version>
<scope>test</scope>
</dependency>
<dependency>
<groupId>com.datastax.spark</groupId>
<artifactId>spark-cassandra-connector_2.10</artifactId>
<version>1.3.0-M1</version>
</dependency>
<dependency>
<groupId>com.datastax.spark</groupId>
<artifactId>spark-cassandra-connector-java_2.10</artifactId>
<version>1.3.0-M1</version>
</dependency>
<dependency>
<groupId>org.apache.spark</groupId>
<artifactId>spark-core_2.10</artifactId>
<version>1.3.1</version>
</dependency>
<dependency>
<groupId>org.apache.spark</groupId>
<artifactId>spark-streaming_2.10</artifactId>
<version>1.3.1</version>
</dependency>
</dependencies>
</project>
4.0.0
org.sparkexamples
卡桑德拉的例子
0.0.1-快照
罐子
卡桑德拉的例子
http://maven.apache.org
UTF-8
朱尼特
朱尼特
3.8.1
测试
com.datasax.spark
spark-cassandra-connector_2.10
1.3.0-M1
com.datasax.spark
spark-cassandra-connector-java_2.10
1.3.0-M1
org.apache.spark
spark-core_2.10
1.3.1
org.apache.spark
spark-2.10
1.3.1
我怎么能修好它
提前感谢。检查您的/.m2/目录中的Spark connector jar文件。如果不存在,则执行
mvn-U
,这将强制更新依赖项。如果存在该目录,请从.m2(仅Spark connector目录)中删除该目录,并执行mvn clean compile>
,该目录应再次下载jar文件
如果您使用的是Eclipse而不是CLI,那么您可以右键单击Eclipse->Maven->Update project中的项目。不确定它在Netbeans/IntelliJ中是如何工作的,但也必须有类似的选项
另外,请检查您的mvn是否可以从您的系统连接到internet。我希望情况并非如此,但您的mvn有可能脱机工作
请检查您的pom:
<dependency>
<groupId>com.datastax.spark</groupId>
<artifactId>spark-cassandra-connector-java_2.10</artifactId>
<version>1.3.0-M1</version>
</dependency>
com.datasax.spark
spark-cassandra-connector-java_2.10
1.3.0-M1
及
com.datasax.spark
spark-cassandra-connector_2.10
1.3.0-M1
请检查这是否导致重复,是否存在冲突的jar。使用此导入,您将遵循旧的API
import static com.datastax.spark.connector.japi.CassandraJavaUtil.javaFunctions;
我正在使用eclipse,我更新了项目,但问题仍然存在。您是否检查了.m2文件夹中的jar文件以查看它是否存在?我对我的.m2文件夹有很多依赖项,所以我要检查哪个jar?它将分组为文件夹。文件夹名将是jar文件的组名。您可以导航到com/datastax/spark或类似的内容。如果您在linux上,您可以执行
查找~/.m2-name'
并获取它。但除此之外,您始终可以浏览文件系统。在文件夹com.datasax.spark中,我有两个子文件夹,spark\u cassandra-connector\u 2.10
和spark-cassandra-connector-java\u 2.10
p.s,我删除了依赖项,然后重新加载,但问题仍然存在。
import static com.datastax.spark.connector.japi.CassandraJavaUtil.javaFunctions;