Apache spark java.lang.ClassNotFoundException:org.apache.spark.Logging

Apache spark java.lang.ClassNotFoundException:org.apache.spark.Logging,apache-spark,hive,Apache Spark,Hive,我刚刚升级到Spark 2.1.0,并决定用beeline测试我的数据,但出于某种原因,它给了我: 错误: org.spark_project.guava.util.concurrent.UncheckedExecutionException: java.lang.ClassNotFoundException:org.apache.spark.Logging已删除 在Spark 2.0中。请检查您的库是否与Spark兼容 2.0(状态=,代码=0) 我重命名了旧目录,所以所有文件都是新的。我不是

我刚刚升级到Spark 2.1.0,并决定用beeline测试我的数据,但出于某种原因,它给了我:

错误: org.spark_project.guava.util.concurrent.UncheckedExecutionException: java.lang.ClassNotFoundException:org.apache.spark.Logging已删除 在Spark 2.0中。请检查您的库是否与Spark兼容 2.0(状态=,代码=0)

我重命名了旧目录,所以所有文件都是新的。我不是在运行自己的代码,而是Spark附带的直线

以下是我遵循的步骤:

cd /usr/local/spark
./sbin/start-thriftserver.sh --master spark://REMOVED:7077 --num-executors 2 --driver-memory 6G --executor-cores 6 --executor-memory 14G --hiveconf hive.server2.thrift.port=10015 --packages datastax:spark-cassandra-connector:1.6.4-s_2.11 --conf spark.cassandra.connection.host=REMOVED --conf spark.cassandra.auth.username=REMOVED --conf spark.cassandra.auth.password=REMOVED
./bin/beeline -u jdbc:hive2://REMOVED:10015

所以我不太确定现在该怎么办,有什么建议吗?

您还需要更新
datasax:spark cassandra连接器。请尝试:

--packages datastax:spark-cassandra-connector:2.0.0-M3-s_2.11

谢谢,效果很好!我选择1.6.4是因为它是第一个出现在这里的版本:这就是为什么我认为它是最新的,我认为2.0.0是一个测试版或其他什么。