Python 无法在Jupiter笔记本中设置sparks主页-anaconda
我在水蟒中使用Jupiter笔记本 我已成功安装pyspark和findpyspark 我现在使用代码:Python 无法在Jupiter笔记本中设置sparks主页-anaconda,python,apache-spark,pyspark,Python,Apache Spark,Pyspark,我在水蟒中使用Jupiter笔记本 我已成功安装pyspark和findpyspark 我现在使用代码:SPARK\u HOME=C:\SPARK\SPARK-2.3.2-bin-hadoop2.7将sparks设置为HOME 但是,我得到了一个错误: File "<ipython-input-27-2126598a4c18>", line 1 SPARK_HOME = C:\spark\spark-2.3.2-bin-hadoop2.7
SPARK\u HOME=C:\SPARK\SPARK-2.3.2-bin-hadoop2.7
将sparks设置为HOME
但是,我得到了一个错误:
File "<ipython-input-27-2126598a4c18>", line 1
SPARK_HOME = C:\spark\spark-2.3.2-bin-hadoop2.7
^
SyntaxError: invalid syntax
文件“”,第1行
SPARK\u HOME=C:\SPARK\SPARK-2.3.2-bin-hadoop2.7
^
SyntaxError:无效语法
如何解决此问题?您只需将Spark\u Home指定为字符串即可
SPARK_HOME = "C:\spark\spark-2.3.2-bin-hadoop2.7"
这解决了您在帖子中的错误。对于下一个错误(您在评论中分享的),它类似于:执行此操作后,我是否仍需要使用FindPark.init()?ValueError:找不到Spark,请确保设置了Spark\u HOME env或Spark位于预期位置(例如,从homebrew安装)。因此,第一个命令是解决您的第一个错误。第二步,您需要检查文件系统和路径,以找到spark文件的绝对路径。我更新了我的帖子,因为你的错误与以前的帖子相似。