`import pyspark`在Jupyter中工作,但不';不能使用pythonshell/script

`import pyspark`在Jupyter中工作,但不';不能使用pythonshell/script,python,pyspark,jupyter-notebook,Python,Pyspark,Jupyter Notebook,我正在尝试将pyspark代码从jupyter笔记本迁移到python脚本。但是当我尝试使用 from pyspark.sql import SparkSession 我有一个错误没有名为'pyspark'的模块 我尝试在系统中查找所有的python3和python2,将它们作为shell运行,并尝试在每个shell中导入pyspark。但是,我在每个shell中都没有相同的模块名为'pyspark' 当我尝试使用python3/python2导入findspark时,我没有得到名为“fin

我正在尝试将
pyspark
代码从
jupyter
笔记本迁移到python脚本。但是当我尝试使用

from pyspark.sql import SparkSession
我有一个错误
没有名为'pyspark'的模块

  • 我尝试在系统中查找所有的
    python3
    python2
    ,将它们作为shell运行,并尝试在每个shell中导入
    pyspark
    。但是,我在每个shell中都没有相同的
    模块名为'pyspark'

  • 当我尝试使用
    python3
    /
    python2
    导入findspark时,我没有得到
    名为“findspark”的模块

  • echo$PYTHONPATH
    echo$SPARK\u HOME
    返回空字符串
  • 我试图找到所有
    spark submit
    ,并用它们运行脚本,而不是
    python3
    。但是,
    argparse
    use有一个错误

    File "/export/home/osvechkarenko/brdmp_10947/automation_001/py_dynamic_report.py", line 206
    if args.print:
                ^
    SyntaxError: invalid syntax
    
    当我将我的脚本与python3一起使用时(不使用
    pyspark
    ),它工作得很好


首先,通过以下方式确保jupyter和shell的python解释器相同:

import sys
print(sys.executable)
如果是这种情况,那么您的jupyter内核在启动时会向python路径添加pyspark。正如@Sraw所指出的,您可以在您的工作环境中通过
pyspark.\uuuu文件\uuu
找到pyspark


下面是一个简短的bash脚本,介绍如何将pyspark手动添加到ubuntu16.10下现有的jupyter内核中:

你能提供pyspark的输出吗?这有助于我们确定哪些环境有效。