工作程序和驱动程序中的Python版本不同

工作程序和驱动程序中的Python版本不同,python,pyspark,Python,Pyspark,我想回答的问题是: 创建RDD 使用映射创建列指定的NumPy数组的RDD。RDD的名称应该是行 我的代码:Rows=df.select(col.rdd.map)(生成数组) 在我输入这个之后,我得到了一个奇怪的错误,基本上是这样的:异常:worker中的Python与驱动程序3.6中的Python版本2.7不同,PySpark无法使用不同的次要版本运行。请检查环境变量PYSPARK_PYTHON和PYSPARK_DRIVER_PYTHON是否正确设置 我知道我正在使用Python 3.6的环

我想回答的问题是:

创建RDD

使用映射创建列指定的NumPy数组的RDD。RDD的名称应该是行

我的代码:
Rows=df.select(col.rdd.map)(生成数组)

在我输入这个之后,我得到了一个奇怪的错误,基本上是这样的:异常:worker中的Python与驱动程序3.6中的Python版本2.7不同,PySpark无法使用不同的次要版本运行。请检查环境变量PYSPARK_PYTHON和PYSPARK_DRIVER_PYTHON是否正确设置

我知道我正在使用Python 3.6的环境中工作。我不确定这行代码是否触发了此错误?你觉得怎么样

请注意,这不是我在Jupyter笔记本上的第一行代码。
如果你需要更多的信息,请让我知道,我会提供它。我不明白为什么会这样

您的从属设备和驱动程序没有使用相同版本的Python,这将在您使用Spark时触发此错误


确保在从属服务器上安装了Python 3.6,然后(在Linux中)修改
spark/conf/spark env.sh
文件以添加
PYSPARK\u Python=/usr/local/lib/python3.6
(如果这是从属服务器中的Python目录)

检查从属服务器。我曾经犯过同样的错误。您的一个从属服务器默认运行python 2。spark worker是否读取您的.bashrc?最好在spark/conf/spark-env.sh中设置。