Apache spark 火花就是不能启动

Apache spark 火花就是不能启动,apache-spark,pyspark,Apache Spark,Pyspark,几周前,我正在使用jupyter和pyspark进行开发,一切正常 我现在又回去工作了,我的环境出了点问题。我绝对不能启动spark(spark shell、pyspark或spark submit)。日志始终在以下行中停止: 16/03/15 17:43:58信息SparkEnv:正在注册OutputCommitCoordinator 我的环境是: Ubuntu 14.04 Spark 1.6.1 Java 1.7或1.8(两者都试过了!) Python 2.7.11 | Anaconda

几周前,我正在使用jupyter和pyspark进行开发,一切正常

我现在又回去工作了,我的环境出了点问题。我绝对不能启动spark(spark shell、pyspark或spark submit)。日志始终在以下行中停止:

16/03/15 17:43:58信息SparkEnv:正在注册OutputCommitCoordinator

我的环境是:

  • Ubuntu 14.04
  • Spark 1.6.1
  • Java 1.7或1.8(两者都试过了!)
  • Python 2.7.11 | Anaconda 2.3.0(64位)|(默认值,2015年12月6日,18:08:32)[GCC 4.4.7 20120313(Red Hat 4.4.7-1)]
完整日志如下:

(我不使用HADOOP,这就是为什么没有设置HADOOP_HOME的原因)

求求你,有人帮忙吗

编辑

我的应用程序是python,我发布的日志来自一个独立的pyspark应用程序,该应用程序使用以下命令启动:

$SPARK\u HOME/bin/SPARK submit--py files py-files.zip main.py

我的$SPARK\u HOME设置为
/opt/SPARK-1.6.1-bin-hadoop2.6/


虽然我无法启动我的应用程序,但我也注意到pyspark shell甚至scala shell都会出现这种情况。

日志显示您的Hadoop\u主页未设置

HADOOP_HOME or hadoop.home.dir are not set
将HADOOP_设置为HOME,重新启动系统并再次测试
检查您的环境设置,如果您运行的是Spark Standalone模式,您可以忽略HADOOP_HOME。

这是Spark shell或pyspark还是所有这些错误?spark_shell或pyspark不需要hadoop_home,除非您指定任何选项告诉它查找它。当spark提交一些需要hadoop库的代码时,我看到了这个错误。为您的SPARK_家设置了什么?很抱歉丢失信息。正如@charles gomes所说,我正在运行一个独立的集群pyspark应用程序,它不需要HADOOP。无论如何,谢谢你的帮助!