Apache spark 火花就是不能启动
几周前,我正在使用jupyter和pyspark进行开发,一切正常 我现在又回去工作了,我的环境出了点问题。我绝对不能启动spark(spark shell、pyspark或spark submit)。日志始终在以下行中停止:Apache spark 火花就是不能启动,apache-spark,pyspark,Apache Spark,Pyspark,几周前,我正在使用jupyter和pyspark进行开发,一切正常 我现在又回去工作了,我的环境出了点问题。我绝对不能启动spark(spark shell、pyspark或spark submit)。日志始终在以下行中停止: 16/03/15 17:43:58信息SparkEnv:正在注册OutputCommitCoordinator 我的环境是: Ubuntu 14.04 Spark 1.6.1 Java 1.7或1.8(两者都试过了!) Python 2.7.11 | Anaconda
16/03/15 17:43:58信息SparkEnv:正在注册OutputCommitCoordinator
我的环境是:
- Ubuntu 14.04
- Spark 1.6.1
- Java 1.7或1.8(两者都试过了!)
- Python 2.7.11 | Anaconda 2.3.0(64位)|(默认值,2015年12月6日,18:08:32)[GCC 4.4.7 20120313(Red Hat 4.4.7-1)]
$SPARK\u HOME/bin/SPARK submit--py files py-files.zip main.py
我的$SPARK\u HOME设置为/opt/SPARK-1.6.1-bin-hadoop2.6/
虽然我无法启动我的应用程序,但我也注意到pyspark shell甚至scala shell都会出现这种情况。日志显示您的Hadoop\u主页未设置
HADOOP_HOME or hadoop.home.dir are not set
将HADOOP_设置为HOME,重新启动系统并再次测试
检查您的环境设置,如果您运行的是Spark Standalone模式,您可以忽略HADOOP_HOME。这是Spark shell或pyspark还是所有这些错误?spark_shell或pyspark不需要hadoop_home,除非您指定任何选项告诉它查找它。当spark提交一些需要hadoop库的代码时,我看到了这个错误。为您的SPARK_家设置了什么?很抱歉丢失信息。正如@charles gomes所说,我正在运行一个独立的集群pyspark应用程序,它不需要HADOOP。无论如何,谢谢你的帮助!