Java apache cassandra依赖性问题

Java apache cassandra依赖性问题,java,eclipse,maven,apache-spark,Java,Eclipse,Maven,Apache Spark,我正在学习一个教程来了解卡桑德拉是如何工作的, 但我有一个进口问题 import static com.datastax.spark.connector.CassandraJavaUtil.*; 无法识别此导入,尤其是此行: javaFunctions(productsRDD, Product.class).saveToCassandra("java_api", "products"); 我的pom.xml如下所示: <project xmlns="http://maven.apach

我正在学习一个教程来了解卡桑德拉是如何工作的, 但我有一个进口问题

import static com.datastax.spark.connector.CassandraJavaUtil.*;
无法识别此导入,尤其是此行:

javaFunctions(productsRDD, Product.class).saveToCassandra("java_api", "products");
我的pom.xml如下所示:

<project xmlns="http://maven.apache.org/POM/4.0.0" xmlns:xsi="http://www.w3.org/2001/XMLSchema-instance"
  xsi:schemaLocation="http://maven.apache.org/POM/4.0.0 http://maven.apache.org/xsd/maven-4.0.0.xsd">
  <modelVersion>4.0.0</modelVersion>

  <groupId>org.sparkexamples</groupId>
  <artifactId>cassandraExample</artifactId>
  <version>0.0.1-SNAPSHOT</version>
  <packaging>jar</packaging>

  <name>cassandraExample</name>
  <url>http://maven.apache.org</url>

  <properties>
    <project.build.sourceEncoding>UTF-8</project.build.sourceEncoding>
  </properties>

  <dependencies>
    <dependency>
      <groupId>junit</groupId>
      <artifactId>junit</artifactId>
      <version>3.8.1</version>
      <scope>test</scope>
    </dependency>
    <dependency>
        <groupId>com.datastax.spark</groupId>
        <artifactId>spark-cassandra-connector_2.10</artifactId>
        <version>1.3.0-M1</version>
    </dependency>
    <dependency>
        <groupId>com.datastax.spark</groupId>
        <artifactId>spark-cassandra-connector-java_2.10</artifactId>
        <version>1.3.0-M1</version>
    </dependency>
    <dependency>
        <groupId>org.apache.spark</groupId>
        <artifactId>spark-core_2.10</artifactId>
        <version>1.3.1</version>
    </dependency>
    <dependency>
        <groupId>org.apache.spark</groupId>
        <artifactId>spark-streaming_2.10</artifactId>
        <version>1.3.1</version>
    </dependency>
  </dependencies>
</project>

4.0.0
org.sparkexamples
卡桑德拉的例子
0.0.1-快照
罐子
卡桑德拉的例子
http://maven.apache.org
UTF-8
朱尼特
朱尼特
3.8.1
测试
com.datasax.spark
spark-cassandra-connector_2.10
1.3.0-M1
com.datasax.spark
spark-cassandra-connector-java_2.10
1.3.0-M1
org.apache.spark
spark-core_2.10
1.3.1
org.apache.spark
spark-2.10
1.3.1
我怎么能修好它


提前感谢。

检查您的/.m2/目录中的Spark connector jar文件。如果不存在,则执行
mvn-U
,这将强制更新依赖项。如果存在该目录,请从.m2(仅Spark connector目录)中删除该目录,并执行
mvn clean compile>
,该目录应再次下载jar文件

如果您使用的是Eclipse而不是CLI,那么您可以右键单击Eclipse->Maven->Update project中的项目。不确定它在Netbeans/IntelliJ中是如何工作的,但也必须有类似的选项

另外,请检查您的mvn是否可以从您的系统连接到internet。我希望情况并非如此,但您的mvn有可能脱机工作

请检查您的pom:

<dependency>
        <groupId>com.datastax.spark</groupId>
        <artifactId>spark-cassandra-connector-java_2.10</artifactId>
        <version>1.3.0-M1</version>
    </dependency>

com.datasax.spark
spark-cassandra-connector-java_2.10
1.3.0-M1


com.datasax.spark
spark-cassandra-connector_2.10
1.3.0-M1

请检查这是否导致重复,是否存在冲突的jar。

使用此导入,您将遵循旧的API

import static com.datastax.spark.connector.japi.CassandraJavaUtil.javaFunctions;

我正在使用eclipse,我更新了项目,但问题仍然存在。您是否检查了.m2文件夹中的jar文件以查看它是否存在?我对我的.m2文件夹有很多依赖项,所以我要检查哪个jar?它将分组为文件夹。文件夹名将是jar文件的组名。您可以导航到com/datastax/spark或类似的内容。如果您在linux上,您可以执行
查找~/.m2-name'
并获取它。但除此之外,您始终可以浏览文件系统。在文件夹com.datasax.spark中,我有两个子文件夹,
spark\u cassandra-connector\u 2.10
spark-cassandra-connector-java\u 2.10
p.s,我删除了依赖项,然后重新加载,但问题仍然存在。
import static com.datastax.spark.connector.japi.CassandraJavaUtil.javaFunctions;