Apache spark 未找到pySpark:值%%pySpark

Apache spark 未找到pySpark:值%%pySpark,apache-spark,pyspark,amazon-emr,Apache Spark,Pyspark,Amazon Emr,我正在使用电子病历上的spark cluster以及Zepplin笔记本电脑 我在webbroswer中打开Zepplin笔记本,创建了一个笔记本,输入 %pyspark 获取错误信息 <console>:26: error: not found: value % %pyspark :26:错误:未找到:值%%pyspark 如何在Zepplin中使用pyspark?我在这里做错了什么?尝试检查您的zeppelin.python属性。也许您的默认系统python和齐柏林飞艇的p

我正在使用电子病历上的spark cluster以及Zepplin笔记本电脑

我在webbroswer中打开Zepplin笔记本,创建了一个笔记本,输入

%pyspark
获取错误信息

<console>:26: error: not found: value % %pyspark
:26:错误:未找到:值%%pyspark

如何在Zepplin中使用pyspark?我在这里做错了什么?

尝试检查您的zeppelin.python属性。也许您的默认系统python和齐柏林飞艇的python版本有冲突

尝试将此行添加到.bashrc

export PYSPARK_PYTHON=/home/$USER/path/to/your/default/system/python

您可能错过了settig SPARK_主页,但如果不是这样,您可以使用findspark library

进口金融园 findspark.find(spark文件夹的路径)

或者,如果您打算使用pyspark 2.2,您可以直接这样做 pip安装pyspark


如果上面的代码行抛出错误,请尝试使用sudo将这些环境变量设置在IDE或系统变量中

export PYSPARK_PYTHON=/home/user/anaconda3/bin/python
export PYSPARK_DRIVER_PYTHON=jupyter
export PYSPARK_DRIVER_PYTHON_OPTS='notebook'
SPARK_HOME = <path to spark home>

PYSPARK_SUBMIT_ARGS = "--master local[2] pyspark-shell"

PYTHONPATH = %SPARK_HOME%\python;%SPARK_HOME%\python\build;%PYTHONPATH%;
SPARK\u HOME=
PYSPARK_SUBMIT_ARGS=“--主本地[2]PYSPARK shell”
PYTHONPATH=%SPARK\u HOME%\python;%SPARK\u HOME%\python\build;%蟒蛇;

可能是该注释中未设置spark的解释器绑定。在右边的锁和键盘图标旁边有一个齿轮图标

单击该图标,将显示口译员列表。确保火花塞为蓝色


如果未列出spark绑定,请使用以下其他一些答案来理解齐柏林飞艇没有可用的spark绑定的原因。

您正在运行的python的sys.path中是否有$spark\u HOME/python?