从java中的spark访问cassandra时出错:无法导入CassandraJavaUtil
我正在使用下面的博客配置从ApacheSpark访问Cassandra “” “” 但是,我无法导入CassandraJavaUtil类依赖项,我的eclipse显示了一个错误“导入无法解决” 请帮助我解决这个错误从java中的spark访问cassandra时出错:无法导入CassandraJavaUtil,cassandra,apache-spark,datastax,Cassandra,Apache Spark,Datastax,我正在使用下面的博客配置从ApacheSpark访问Cassandra “” “” 但是,我无法导入CassandraJavaUtil类依赖项,我的eclipse显示了一个错误“导入无法解决” 请帮助我解决这个错误 非常感谢。我也遵循了您链接的第一个文档中的示例。您会注意到,在“先决条件”部分,步骤2要求您将示例创建为Maven项目。步骤3列出了需要添加到项目中的四个依赖项。其中两个依赖项特定于火花连接器: spark:spark-cassandra-connector_2.10:1.0.0-
非常感谢。我也遵循了您链接的第一个文档中的示例。您会注意到,在“先决条件”部分,步骤2要求您将示例创建为Maven项目。步骤3列出了需要添加到项目中的四个依赖项。其中两个依赖项特定于火花连接器:
- spark:spark-cassandra-connector_2.10:1.0.0-rc4
- spark:spark-cassandra-connector-java_2.10:1.0.0-rc4
pom.xml
的“依赖项”部分如下所示:
<dependencies>
<dependency>
<groupId>com.datastax.spark</groupId>
<artifactId>spark-cassandra-connector_2.10</artifactId>
<version>1.1.0-alpha2</version>
</dependency>
<dependency>
<groupId>com.datastax.spark</groupId>
<artifactId>spark-cassandra-connector-java_2.10</artifactId>
<version>1.1.0-alpha2</version>
</dependency>
<dependency>
<groupId>org.apache.spark</groupId>
<artifactId>spark-core_2.10</artifactId>
<version>1.1.0</version>
</dependency>
<dependency>
<groupId>org.apache.spark</groupId>
<artifactId>spark-streaming_2.10</artifactId>
<version>1.1.0</version>
</dependency>
</dependencies>
类
CassandraJavaUtil
现在已移动到com.datastax.spark.connector中的japi
包中
因此,请尝试使用:-
import static com.datastax.spark.connector.japi.CassandraJavaUtil.*;
注意:
根据本文件:
自1.1.x版以来,JavaAPI提供了几种有用的工厂方法,可用于创建两种主要类型的行读取器工厂:基于类型转换器的工厂和基于列映射器的工厂
还要注意,使用CassandraJavaUtil.javaFunctions()
的语法也发生了变化。仔细阅读上述参考资料 还是不行,有什么建议吗?类型CassandraJavaUtil中的方法javaFunctions(SparkContext)不适用于参数(JavaRDD,类)已添加com.datastax.spark-cassandra-connector_2.10 1.2.0 com.datastax.spark-cassandra-connector-java_2.10 1.2.0仍然无法使用任何指针please@mithra继续,作为一个单独的问题问这个问题。这样,您将吸引更多的人观看。请参见:
cd workspace/sparkTest2
mvn package
import static com.datastax.spark.connector.japi.CassandraJavaUtil.*;