Python 在windows上安装pip后如何运行spark shell?

Python 在windows上安装pip后如何运行spark shell?,python,pyspark,Python,Pyspark,我已经用pip install pyspark安装了Spark,如设置系统变量pyspark\u PYTHON=python3和Spark\u HOME=D:\programs\Anaconda\Lib\site packages\pyspark等问题中所述,并将它们添加到PATH。但是,spark shell无论如何都不会运行,运行命令pyspark给出系统无法找到路径。我应该如何运行它?为什么不使用databricks community edition?你可以体验一下云计算

我已经用
pip install pyspark
安装了Spark,如设置系统变量
pyspark\u PYTHON=python3
Spark\u HOME=D:\programs\Anaconda\Lib\site packages\pyspark
等问题中所述,并将它们添加到
PATH
。但是,spark shell无论如何都不会运行,运行命令
pyspark
给出
系统无法找到路径。我应该如何运行它?

为什么不使用databricks community edition?你可以体验一下云计算