Apache spark Spark-错误:无法找到或加载主类org.apache.Spark.launcher.main

Apache spark Spark-错误:无法找到或加载主类org.apache.Spark.launcher.main,apache-spark,pyspark,Apache Spark,Pyspark,我刚开始玩Spark,我已经很挣扎了。我刚刚下载了Spark的Spark-1.6.1-bin-hadoop2.4,并试图打开PySpark外壳/bin/PySpark,但不幸的是,我收到了以下提示: Error: Could not find or load main class org.apache.spark.launcher.Main 环境: Ubuntu 14.04.4 64位 Java版本“1.8.0_77” Python 2.7.6 Spark 1.6.1针对Hadoop 2.4

我刚开始玩Spark,我已经很挣扎了。我刚刚下载了Spark的
Spark-1.6.1-bin-hadoop2.4
,并试图打开PySpark外壳
/bin/PySpark
,但不幸的是,我收到了以下提示:

Error: Could not find or load main class org.apache.spark.launcher.Main
环境:

  • Ubuntu 14.04.4 64位
  • Java版本“1.8.0_77”
  • Python 2.7.6
  • Spark 1.6.1针对Hadoop 2.4及更高版本的预构建
有什么线索可以解决这个问题吗


它与针对Hadoop 2.4及更高版本的Spark 1.2.0预构建配合良好

请检查机器上是否安装了java 并检查lib目录下的所有jar文件是否正常工作