`import pyspark`在Jupyter中工作,但不';不能使用pythonshell/script
我正在尝试将`import pyspark`在Jupyter中工作,但不';不能使用pythonshell/script,python,pyspark,jupyter-notebook,Python,Pyspark,Jupyter Notebook,我正在尝试将pyspark代码从jupyter笔记本迁移到python脚本。但是当我尝试使用 from pyspark.sql import SparkSession 我有一个错误没有名为'pyspark'的模块 我尝试在系统中查找所有的python3和python2,将它们作为shell运行,并尝试在每个shell中导入pyspark。但是,我在每个shell中都没有相同的模块名为'pyspark' 当我尝试使用python3/python2导入findspark时,我没有得到名为“fin
pyspark
代码从jupyter
笔记本迁移到python脚本。但是当我尝试使用
from pyspark.sql import SparkSession
我有一个错误没有名为'pyspark'的模块
- 我尝试在系统中查找所有的
和python3
,将它们作为shell运行,并尝试在每个shell中导入python2
。但是,我在每个shell中都没有相同的pyspark
模块名为'pyspark'
- 当我尝试使用
/python3
导入findspark时,我没有得到python2
名为“findspark”的模块
和echo$PYTHONPATH
返回空字符串echo$SPARK\u HOME
- 我试图找到所有
,并用它们运行脚本,而不是spark submit
。但是,python3
use有一个错误argparse
当我将我的脚本与python3一起使用时(不使用File "/export/home/osvechkarenko/brdmp_10947/automation_001/py_dynamic_report.py", line 206 if args.print: ^ SyntaxError: invalid syntax
),它工作得很好pyspark
import sys
print(sys.executable)
如果是这种情况,那么您的jupyter内核在启动时会向python路径添加pyspark。正如@Sraw所指出的,您可以在您的工作环境中通过pyspark.\uuuu文件\uuu
找到pyspark
下面是一个简短的bash脚本,介绍如何将pyspark手动添加到ubuntu16.10下现有的jupyter内核中:你能提供pyspark的输出吗?这有助于我们确定哪些环境有效。