Java 为什么./sbin/start-master.sh会给出;错误:无法找到或加载主类org.apache.spark.launcher.main“;?

Java 为什么./sbin/start-master.sh会给出;错误:无法找到或加载主类org.apache.spark.launcher.main“;?,java,hadoop,apache-spark,Java,Hadoop,Apache Spark,我是新手。 我正在单节点上安装spark-1.5.2-bin-without-hadoop.tgz。 我已完成配置 当我要使用以下命令启动主节点时,它会显示错误。请帮助我 Command : ./sbin/start-master.sh starting org.apache.spark.deploy.master.Master, logging to /usr/local/spark/sbin/../logs/spark-jalaj-org.apache.spark.deploy.mas

我是新手。 我正在单节点上安装spark-1.5.2-bin-without-hadoop.tgz。 我已完成配置

当我要使用以下命令启动主节点时,它会显示错误。请帮助我

Command : ./sbin/start-master.sh 
starting org.apache.spark.deploy.master.Master, logging to   /usr/local/spark/sbin/../logs/spark-jalaj-org.apache.spark.deploy.master.Master-1-CIPL367.out
failed to launch org.apache.spark.deploy.master.Master:
Error: Could not find or load main class org.apache.spark.launcher.Main
full log in /usr/local/spark/sbin/../logs/spark-jalaj-org.apache.spark.deploy.master.Master-1-CIPL367.out

谢谢你们的评论

我重新安装了spark 1.5.2,它适合我。 之前的问题是spark-1.5.2.tar文件。
因此,我下载了spark 1.5.2的新tar文件并重新安装spark,现在它可以正常工作了。

我发现JAR文件发生了一些罕见的情况,它被破坏了;您可以通过
解压-l./spark/lib/spark assembly-*
对其进行测试,如果收到错误消息,您只需要用未损坏的版本替换JAR。(如果您看到的是文件列表,那么该JAR文件至少是可以的。)

那么您的配置是什么?您可以发布日志文件的输出吗?使用
sh-x./sbin/Start master.sh重新开始。它会告诉我们不正确的类路径,但现在无法解释原因。