Pyspark 更改Livy在EMR集群中使用的Python版本
我意识到了这一点 我也看到了 然而,这些都不起作用。无论发生什么情况,Livy都会继续使用Python 2.7 这是在EMR集群上运行Livy 0.6.0Pyspark 更改Livy在EMR集群中使用的Python版本,pyspark,amazon-emr,livy,Pyspark,Amazon Emr,Livy,我意识到了这一点 我也看到了 然而,这些都不起作用。无论发生什么情况,Livy都会继续使用Python 2.7 这是在EMR集群上运行Livy 0.6.0 我已将hadoop用户、我的用户、root用户和ec2用户中的PYSPARK\u PYTHON环境变量更改为/usr/bin/python3。通过ssh登录EMR主节点并运行pyspark将按预期启动python3。但是,Livy一直在使用python2.7 我在/etc/spark/conf/spark env.sh文件中添加了expo
- 我已将hadoop用户、我的用户、root用户和ec2用户中的
环境变量更改为PYSPARK\u PYTHON
。通过/usr/bin/python3
登录EMR主节点并运行ssh
将按预期启动python3。但是,Livy一直在使用python2.7pyspark
- 我在
文件中添加了/etc/spark/conf/spark env.sh
。利维一直在用蟒蛇2.7export-PYSPARK\u-PYTHON=/usr/bin/python3
- 我将
和“spark.warn.appMasterEnv.PYSPARK_PYTHON”:“/usr/bin/python3”
添加到下面列出的项目中。利维一直在用蟒蛇2.7“spark.executorEnv.PYSPARK_PYTHON”:“/usr/bin/python3”
- 在启动PySpark内核Jupyter之前,sparkmagic
和config.json
文件config\u other\u settings.json
- sparkmagic
Jupyter小部件中的会话属性。利维一直在用蟒蛇2.7%manage\u spark
行魔术之前的单元格魔术%%spark config
%spark add--会话测试--urlhttp://X.X.X.X:8998 --auth None——python语言
- 在启动PySpark内核Jupyter之前,sparkmagic
我怎样才能让Livy使用python3而不是python2呢?发布后终于找到了答案 在通过Livy在远程EMR集群上启动PySpark会话之前,我在PySpark内核Jupyter会话单元中运行了以下代码
%%configure -f
{ "conf":{
"spark.pyspark.python": "python3"
}
}
只需添加“spark.pyspark.python”:“python3”
到.sparkmagicconfig.json
或config\u其他设置。json
也起作用
令人困惑的是,这与Livy官方文档不符