无法解析导入com.datastax.spark.connector.CassandraJavaUtil
我正在尝试使用spark sql java API连接cassandra。 下面是我正在使用的罐子无法解析导入com.datastax.spark.connector.CassandraJavaUtil,java,apache-spark,cassandra,spark-cassandra-connector,Java,Apache Spark,Cassandra,Spark Cassandra Connector,我正在尝试使用spark sql java API连接cassandra。 下面是我正在使用的罐子 <dependency> <groupId>com.datastax.cassandra</groupId> <artifactId>spark-cassandra-connector_2.11</artifactId> <version>2.3.1</version> </depen
<dependency>
<groupId>com.datastax.cassandra</groupId>
<artifactId>spark-cassandra-connector_2.11</artifactId>
<version>2.3.1</version>
</dependency>
com.datasax.cassandra
您需要改用:
com.datasax.spark
.明白了,在scala vals_df.drop(col(“lastStagedTs”)).filter(col(“基准类型代码”)===“百分位数50”)中,此筛选工作正常。。。现在在Java中,由于没有定义col(),所以这不起作用。我导入了import static org.apache.spark.sql.functions.*;仍然无法识别“col”函数,如何修复它?是的,我读过这篇文章,但没有真正的帮助,因为scala中的大部分内容,对于Java来说,这不是描述性的。Ex df.filter(col(“基准类型代码”).equals(“百分位50”))给出“类型列的方法过滤器(布尔值)未定义”,
<dependency>
<groupId>com.datastax.spark</groupId>
<artifactId>spark-cassandra-connector_2.11</artifactId>
<version>2.3.1</version>
</dependency>