使用pycharm的Linux上的PySpark-第一个异常错误

使用pycharm的Linux上的PySpark-第一个异常错误,pyspark,pycharm,Pyspark,Pycharm,我正在尝试在我配置的Linux虚拟机上运行我的第一个PySpark脚本。当我运行以下操作时,我收到的错误消息是KeyError:SPARK\u HOME: from os import environ from pyspark import SparkContext 我通过运行export SPARK\u HOME=~/SPARK-2.4.3-bin-hadoop2.7暂时消除了这个错误。然后我遇到了一个新的错误error=2,没有这样的文件或目录。搜索将我转到此页面:。然后我运行了expo

我正在尝试在我配置的Linux虚拟机上运行我的第一个PySpark脚本。当我运行以下操作时,我收到的错误消息是
KeyError:SPARK\u HOME

from os import environ
from pyspark import SparkContext

我通过运行
export SPARK\u HOME=~/SPARK-2.4.3-bin-hadoop2.7
暂时消除了这个错误。然后我遇到了一个新的错误
error=2,没有这样的文件或目录
。搜索将我转到此页面:。然后我运行了
export-PYSPARK\u-PYTHON=~/python3*
。这让我又回到了经历
keyrerror:SPARK\u HOME
错误的时候

老实说,我正在经历这个过程,因为这是我第一次配置Spark并使用PySpark。我还是不太明白pycharm的来龙去脉


我希望能够在此页面上运行以下基本示例脚本:没有问题。

有一个名为findspark的包

或者,若在环境中找不到路径,则可以使用以下代码设置路径

import os
if 'SPARK_HOME' not in os.environ:
    os.environ['SPARK_HOME'] = 'full_path_to_spark_root'

[代码继续]

我使用上述方法修复了路径。但是,我无法使用findspark方法(收到一个错误,无法找到模块)。在我重新运行我提供的原始脚本之后,我仍然得到
[Errno 2]没有这样的文件或目录:
错误。