Spark Python错误“;FileNotFoundError:[WinError 2]系统找不到指定的文件";
我不熟悉Spark和Python。我已经在windows上安装了python 3.5.1和Spark-1.6.0-bin-hadoop2.4 当我从pythonshell执行sc=SparkContext(“local”,“Simple App”)时,我遇到了以下错误 你能帮忙吗 从pyspark导入SparkConf,SparkContext sc=SparkContext(“本地”、“简单应用程序”) 回溯(最近一次呼叫最后一次): 文件“”,第1行,在Spark Python错误“;FileNotFoundError:[WinError 2]系统找不到指定的文件";,python,python-3.x,apache-spark,pyspark,Python,Python 3.x,Apache Spark,Pyspark,我不熟悉Spark和Python。我已经在windows上安装了python 3.5.1和Spark-1.6.0-bin-hadoop2.4 当我从pythonshell执行sc=SparkContext(“local”,“Simple App”)时,我遇到了以下错误 你能帮忙吗 从pyspark导入SparkConf,SparkContext sc=SparkContext(“本地”、“简单应用程序”) 回溯(最近一次呼叫最后一次): 文件“”,第1行,在 sc = SparkContext(
sc = SparkContext("local", "Simple App")
文件“C:\spark-1.6.0-bin-hadoop2.4\python\pyspark\context.py”,第112行,在init
SparkContext._ensure_initialized(self, gateway=gateway)
文件“C:\spark-1.6.0-bin-hadoop2.4\python\pyspark\context.py”,第245行,在
SparkContext._gateway = gateway or launch_gateway()
文件“C:\spark-1.6.0-bin-hadoop2.4\python\pyspark\java\u gateway.py”,第79行,在launch\u gateway中
proc = Popen(command, stdin=PIPE, env=env)
文件“C:\Python35-32\lib\subprocess.py”,第950行,在init
恢复信号,启动新会话)
文件“C:\Python35-32\lib\subprocess.py”,第1220行,在执行子进程中
startupinfo)
FileNotFoundError:[WinError 2]系统找不到指定的文件
你必须正确设置火花塞。我已经调试了python脚本并进行了验证。这样就行了。检查你的地址,确保写得正确。就我而言,我的地址是: “C:/Users/nekooeimehr/AppData/Local/Programs/Python/Python35-32/spark-1.6.2-bin-hadoop2.4” 而正确的地址是: “C:/Users/nekooeimehr/AppData/Local/Programs/Python35-32/spark-1.6.2-bin-hadoop2.4/spark-1.6.2-bin-hadoop2.4”
如果系统验证了系统环境变量,但仍不工作,请检查您的jvm(64或32)位版本是否与您的计算机兼容。您好,您是否尝试了
sc=SparkContext(“本地”,“简单\App”)
?您解决了这个问题吗?:请详细说明