Java 8 Spark Cassandra NoClassDefFoundError guava/cache/CacheLoader

Java 8 Spark Cassandra NoClassDefFoundError guava/cache/CacheLoader,java-8,spark-cassandra-connector,cassandra-2.1,apache-spark-2.0,Java 8,Spark Cassandra Connector,Cassandra 2.1,Apache Spark 2.0,运行Cassandra 2.2.8、Win7、JDK8、Spark2的CP中包含以下内容:Cassandra core 3.12、spark-Cassandra-2.11、spark-Cassandra-java-2.11、Spark2.11、spark-network-common_2.11、Guava-16.0.jar、sacala2.11.jar等 尝试运行一个基本示例-编译得很好,但是当我尝试运行时-在第一行本身会出错: SparkConf conf=new SparkConf(); j

运行Cassandra 2.2.8、Win7、JDK8、Spark2的CP中包含以下内容:Cassandra core 3.12、spark-Cassandra-2.11、spark-Cassandra-java-2.11、Spark2.11、spark-network-common_2.11、Guava-16.0.jar、sacala2.11.jar等 尝试运行一个基本示例-编译得很好,但是当我尝试运行时-在第一行本身会出错:
SparkConf conf=new SparkConf();
java.lang.NoClassDefFoundError:org/spark_project/guava/cache/CacheLoader

缺少spark network common应该会导致此错误,但我确实有。有冲突的罐子吗?
谢谢

所以答案是:我不知道答案,但问题已经解决了。在pom中使用了这个选项,并在eclipse中创建了一个maven项目。它带来了好几十个罐子,终于奏效了。很可能是一些冲突/丢失的jar-试图查找-很难找到。

也许您应该检查存储库。检查jar是否具有lastupdated。如果它具有lastupdated,则删除这些文件。然后再次下载。

检查spark类路径,您是使用assembly jar运行还是提交jar运行时?@uttam-不,我没有使用assembly jar,也没有在运行时提交jar。这个问题最终通过使用maven pom解决了——我想可能是一些冲突/丢失的JAR。pom添加了几十个罐子,因此魔术发生了。