Apache spark pyspark的路径是什么?

Apache spark pyspark的路径是什么?,apache-spark,environment-variables,pyspark,Apache Spark,Environment Variables,Pyspark,我已经安装了spark。而且,我可以进入spark版本中的bin文件夹,运行/spark shell,它就可以正常运行了 但是,由于某种原因,我无法启动pyspark和任何子模块 因此,我进入bin并启动/pyspark,它告诉我我的路径不正确 我的PYSPARK\u PYTHON的当前路径与运行PYSPARK可执行脚本的路径相同 PYSPARK_PYTHON的正确路径是什么?它不应该是指向spark版本的bin文件夹中名为pyspark的可执行脚本的路径吗 这是我现在拥有的路径,但它告诉我en

我已经安装了spark。而且,我可以进入spark版本中的
bin
文件夹,运行
/spark shell
,它就可以正常运行了

但是,由于某种原因,我无法启动
pyspark
和任何子模块

因此,我进入
bin
并启动
/pyspark
,它告诉我我的路径不正确

我的
PYSPARK\u PYTHON
的当前路径与运行
PYSPARK
可执行脚本的路径相同

PYSPARK_PYTHON的正确路径是什么?它不应该是指向spark版本的
bin
文件夹中名为
pyspark
的可执行脚本的路径吗

这是我现在拥有的路径,但它告诉我
env:没有这样的文件或目录
。谢谢

PYSPARK_PYTHON的正确路径是什么?在spark版本的bin文件夹中,不应该是指向名为pyspark的可执行脚本的路径吗

不,不应该。它应该指向要与Spark一起使用的Python可执行文件(例如,
哪个Python
的输出)。如果不想使用自定义解释器,请忽略它。Spark将使用系统
路径上可用的第一个Python解释器