Apache spark 安装2.3版pyspark时出现问题

Apache spark 安装2.3版pyspark时出现问题,apache-spark,pyspark,Apache Spark,Pyspark,过去几天我一直在尝试安装pyspark 2.3。但到目前为止,我才发现版本3.0.1和2.4.7。实际上,作为项目的一部分,我正在尝试运行PySpark2.3中实现的代码。那个版本现在还可用吗?如果pyspark 2.3可供安装且可共享,请向我发送安装pyspark 2.3所需的基本资源。因为我觉得在3.0.1版中实现该代码很困难。Pyspark 2.3应该仍然可以通过Conda Forge获得 请结帐 在这里,您可以直接下载以下及更多软件包: linux-64/pyspark-2.3.2-p

过去几天我一直在尝试安装pyspark 2.3。但到目前为止,我才发现版本3.0.1和2.4.7。实际上,作为项目的一部分,我正在尝试运行PySpark2.3中实现的代码。那个版本现在还可用吗?如果pyspark 2.3可供安装且可共享,请向我发送安装pyspark 2.3所需的基本资源。因为我觉得在3.0.1版中实现该代码很困难。

Pyspark 2.3应该仍然可以通过Conda Forge获得

请结帐

在这里,您可以直接下载以下及更多软件包:

  • linux-64/pyspark-2.3.2-py36_1000.tar.bz2
  • win-64/pyspark-2.3.2-py36_1000.tar.bz2
如果不需要原始软件包,也可以通过conda安装:

conda安装-c conda forge pyspark=2.3.2

2.3和2.4.7之间不应该有重大变化。。。基本功能在版本3中没有太大变化,那么您遇到了什么错误呢?