Spark Python错误“;FileNotFoundError:[WinError 2]系统找不到指定的文件";

Spark Python错误“;FileNotFoundError:[WinError 2]系统找不到指定的文件";,python,python-3.x,apache-spark,pyspark,Python,Python 3.x,Apache Spark,Pyspark,我不熟悉Spark和Python。我已经在windows上安装了python 3.5.1和Spark-1.6.0-bin-hadoop2.4 当我从pythonshell执行sc=SparkContext(“local”,“Simple App”)时,我遇到了以下错误 你能帮忙吗 从pyspark导入SparkConf,SparkContext sc=SparkContext(“本地”、“简单应用程序”) 回溯(最近一次呼叫最后一次): 文件“”,第1行,在 sc = SparkContext(

我不熟悉Spark和Python。我已经在windows上安装了python 3.5.1和Spark-1.6.0-bin-hadoop2.4

当我从pythonshell执行sc=SparkContext(“local”,“Simple App”)时,我遇到了以下错误

你能帮忙吗

从pyspark导入SparkConf,SparkContext

sc=SparkContext(“本地”、“简单应用程序”)

回溯(最近一次呼叫最后一次):

文件“”,第1行,在

sc = SparkContext("local", "Simple App")
文件“C:\spark-1.6.0-bin-hadoop2.4\python\pyspark\context.py”,第112行,在init

SparkContext._ensure_initialized(self, gateway=gateway)
文件“C:\spark-1.6.0-bin-hadoop2.4\python\pyspark\context.py”,第245行,在

SparkContext._gateway = gateway or launch_gateway()
文件“C:\spark-1.6.0-bin-hadoop2.4\python\pyspark\java\u gateway.py”,第79行,在launch\u gateway中

proc = Popen(command, stdin=PIPE, env=env)
文件“C:\Python35-32\lib\subprocess.py”,第950行,在init 恢复信号,启动新会话)

文件“C:\Python35-32\lib\subprocess.py”,第1220行,在执行子进程中 startupinfo)

FileNotFoundError:[WinError 2]系统找不到指定的文件


你必须正确设置火花塞。我已经调试了python脚本并进行了验证。这样就行了。

检查你的地址,确保写得正确。就我而言,我的地址是:

“C:/Users/nekooeimehr/AppData/Local/Programs/Python/Python35-32/spark-1.6.2-bin-hadoop2.4”

而正确的地址是:

“C:/Users/nekooeimehr/AppData/Local/Programs/Python35-32/spark-1.6.2-bin-hadoop2.4/spark-1.6.2-bin-hadoop2.4”


如果系统验证了系统环境变量,但仍不工作,请检查您的jvm(64或32)位版本是否与您的计算机兼容。

您好,您是否尝试了
sc=SparkContext(“本地”,“简单\App”)
?您解决了这个问题吗?:请详细说明