为什么Python在导入时无法识别spark?

为什么Python在导入时无法识别spark?,python,apache-spark,python-import,importerror,pyspark,Python,Apache Spark,Python Import,Importerror,Pyspark,当我尝试导入spark时,Python抛出一个错误: import pyspark.context 错误是 Traceback (most recent call last): File "<pyshell#N>", line 1, in <module> import pyspark.context ImportError: No module named pyspark.context SPARK\u HOME的路径是/bin/pyspark前面的路径

当我尝试导入spark时,Python抛出一个错误:

import pyspark.context
错误是

Traceback (most recent call last):
  File "<pyshell#N>", line 1, in <module>
    import pyspark.context
ImportError: No module named pyspark.context
SPARK\u HOME
的路径是
/bin/pyspark
前面的路径,它应该包含文件夹
python


然而,我的
PYTHONPATH
似乎是正确的,因为我可以导入
numpy
等等。有什么问题吗

尝试以编程方式加载pyspark:

import sys
try:
    sys.path.append("/Users/<username>/Downloads/spark-1.4.0/python/")
    from pyspark import context
    print ("Successfully imported Spark Modules")
except ImportError as e:
    print ("Can not import Spark Modules", e)
导入系统 尝试: sys.path.append(“/Users//Downloads/spark-1.4.0/python/”) 从pyspark导入上下文 打印(“已成功导入Spark模块”) 除e以外: 打印(“无法导入火花模块”,e)
我可以问一下为什么要投反对票吗?当然,这是可行的,因为您正在手动将其添加为路径。这是一个好主意,但不是一个永久的解决办法?我想我可以通过这样做永久地添加目录:
export PYTHONPATH=$SPARK\u HOME/python/:$PYTHONPATH
import sys
try:
    sys.path.append("/Users/<username>/Downloads/spark-1.4.0/python/")
    from pyspark import context
    print ("Successfully imported Spark Modules")
except ImportError as e:
    print ("Can not import Spark Modules", e)