为什么Python在导入时无法识别spark?
当我尝试导入spark时,Python抛出一个错误:为什么Python在导入时无法识别spark?,python,apache-spark,python-import,importerror,pyspark,Python,Apache Spark,Python Import,Importerror,Pyspark,当我尝试导入spark时,Python抛出一个错误: import pyspark.context 错误是 Traceback (most recent call last): File "<pyshell#N>", line 1, in <module> import pyspark.context ImportError: No module named pyspark.context SPARK\u HOME的路径是/bin/pyspark前面的路径
import pyspark.context
错误是
Traceback (most recent call last):
File "<pyshell#N>", line 1, in <module>
import pyspark.context
ImportError: No module named pyspark.context
SPARK\u HOME
的路径是/bin/pyspark
前面的路径,它应该包含文件夹python
然而,我的
PYTHONPATH
似乎是正确的,因为我可以导入numpy
等等。有什么问题吗 尝试以编程方式加载pyspark:
import sys
try:
sys.path.append("/Users/<username>/Downloads/spark-1.4.0/python/")
from pyspark import context
print ("Successfully imported Spark Modules")
except ImportError as e:
print ("Can not import Spark Modules", e)
导入系统
尝试:
sys.path.append(“/Users//Downloads/spark-1.4.0/python/”)
从pyspark导入上下文
打印(“已成功导入Spark模块”)
除e以外:
打印(“无法导入火花模块”,e)
我可以问一下为什么要投反对票吗?当然,这是可行的,因为您正在手动将其添加为路径。这是一个好主意,但不是一个永久的解决办法?我想我可以通过这样做永久地添加目录:
export PYTHONPATH=$SPARK\u HOME/python/:$PYTHONPATH
import sys
try:
sys.path.append("/Users/<username>/Downloads/spark-1.4.0/python/")
from pyspark import context
print ("Successfully imported Spark Modules")
except ImportError as e:
print ("Can not import Spark Modules", e)