Spark Python错误“;FileNotFoundError:[WinError 2]系统找不到指定的文件”;
我正在本地计算机上运行Spark Python错误“;FileNotFoundError:[WinError 2]系统找不到指定的文件”;,python,python-3.x,apache-spark,pyspark,Python,Python 3.x,Apache Spark,Pyspark,我正在本地计算机上运行pyspark。我得到以下错误: Traceback (most recent call last): File "", line 30, in sparkTest with SparkContext("local", "PySparkWordCount") as sc: File "C:\Program Files\Anaconda3\lib\site-packages\pyspark-2.2.0-py3.5.egg\pyspark\context.py", line 1
pyspark
。我得到以下错误:
Traceback (most recent call last):
File "", line 30, in sparkTest with SparkContext("local", "PySparkWordCount") as sc:
File "C:\Program Files\Anaconda3\lib\site-packages\pyspark-2.2.0-py3.5.egg\pyspark\context.py", line 115, in __init__
SparkContext._ensure_initialized(self, gateway=gateway, conf=conf)
File "C:\Program Files\Anaconda3\lib\site-packages\pyspark-2.2.0-py3.5.egg\pyspark\context.py", line 283, in _ensure_initialized
SparkContext._gateway = gateway or launch_gateway(conf)
File "C:\Program Files\Anaconda3\lib\site-packages\pyspark-2.2.0-py3.5.egg\pyspark\java_gateway.py", line 80, in launch_gateway
proc = Popen(command, stdin=PIPE, env=env)
File "C:\Program Files\Anaconda3\lib\subprocess.py", line 947, in __init__
restore_signals, start_new_session)
File "C:\Program Files\Anaconda3\lib\subprocess.py", line 1224, in _execute_child
startupinfo)
FileNotFoundError: [WinError 2] The system cannot find the file specified
Process finished with exit code
你查过普通的嫌疑犯了吗
JAVA\u HOME
,PATH
等。该文件夹中是否存在context.py
?@philantrover是的,我已经检查了JAVA\u HOME
和PATH
。我找不到context.py,但是有一个contextlib.py。你能告诉我context.py是什么,它的内容是什么吗?处理创建SparkContext并处理其他需要完成的任务。检查SPARK\u HOME
。@philantrovert我已经设置并重新检查了环境变量SPARK\u HOME
,JAVA\u HOME
,HADOOP\u HOME
,PYTHONPATH
,PATH
context.py
存在于pyspark文件夹中(之前我检查了错误的文件夹)。你知道这里还有什么问题吗?如果验证了系统环境变量,但它仍然不工作,请检查你的jvm(64或32)位版本是否与你的机器兼容。你是否检查了常见的问题JAVA\u HOME
,PATH
等。该文件夹中是否存在context.py
?@philantrover是的,我已经检查了JAVA\u HOME
和PATH
。我找不到context.py,但是有一个contextlib.py。你能告诉我context.py是什么,它的内容是什么吗?处理创建SparkContext并处理其他需要完成的任务。检查SPARK\u HOME
。@philantrovert我已经设置并重新检查了环境变量SPARK\u HOME
,JAVA\u HOME
,HADOOP\u HOME
,PYTHONPATH
,PATH
context.py
存在于pyspark文件夹中(之前我检查了错误的文件夹)。您知道这里还有什么问题吗?如果验证了系统环境变量,但仍然无法工作,请检查您的jvm(64或32)位版本是否与您的机器兼容。