Python KeyError:';星火之家';在Pypark

Python KeyError:';星火之家';在Pypark,python,machine-learning,apache-spark,pyspark,Python,Machine Learning,Apache Spark,Pyspark,当我尝试时: from pyspark import SparkContext, SparkConf sc=SparkContext() 我得到: KeyError: 'SPARK_HOME' 解决方案是什么?pyspark依赖于SDK。在使用pyspark之前,您需要先安装它 设置完成后,您需要设置环境变量SPARK\u HOME告诉pyspark在哪里查找SPARK安装。如果您使用的是*nix系统,您可以通过将以下内容添加到.bashrc export SPARK_HOME=<lo

当我尝试时:

from pyspark import SparkContext, SparkConf
sc=SparkContext()
我得到:

KeyError: 'SPARK_HOME'

解决方案是什么?

pyspark
依赖于SDK。在使用
pyspark
之前,您需要先安装它

设置完成后,您需要设置环境变量
SPARK\u HOME
告诉
pyspark
在哪里查找
SPARK
安装。如果您使用的是*nix系统,您可以通过将以下内容添加到
.bashrc

export SPARK_HOME=<location of spark install>

设置环境变量
SPARK\u HOME
SET SPARK_HOME=<location of spark install>