Python KeyError:';星火之家';在Pypark
当我尝试时:Python KeyError:';星火之家';在Pypark,python,machine-learning,apache-spark,pyspark,Python,Machine Learning,Apache Spark,Pyspark,当我尝试时: from pyspark import SparkContext, SparkConf sc=SparkContext() 我得到: KeyError: 'SPARK_HOME' 解决方案是什么?pyspark依赖于SDK。在使用pyspark之前,您需要先安装它 设置完成后,您需要设置环境变量SPARK\u HOME告诉pyspark在哪里查找SPARK安装。如果您使用的是*nix系统,您可以通过将以下内容添加到.bashrc export SPARK_HOME=<lo
from pyspark import SparkContext, SparkConf
sc=SparkContext()
我得到:
KeyError: 'SPARK_HOME'
解决方案是什么?
pyspark
依赖于SDK。在使用pyspark
之前,您需要先安装它
设置完成后,您需要设置环境变量SPARK\u HOME
告诉pyspark
在哪里查找SPARK
安装。如果您使用的是*nix系统,您可以通过将以下内容添加到.bashrc
export SPARK_HOME=<location of spark install>
设置环境变量
SPARK\u HOME
SET SPARK_HOME=<location of spark install>