Apache Spark使用的python版本

Apache Spark使用的python版本,python,hadoop,apache-spark,pyspark,Python,Hadoop,Apache Spark,Pyspark,ApacheSpark库支持什么版本的python(2或3)? 如果它支持这两个版本,那么在使用ApacheSpark时使用Python2或Python3是否有任何性能方面的考虑因素?至少因为Spark 1.2.1默认的python版本是2.7,如果不使用PYSPARK\u python或PYSPARK\u DRIVER\u python(请参阅) Python3自Spark 1.4.0以来一直受支持(请参阅和) 选择一个而不是另一个应该取决于你的需求。如果你不确定,阅读可能是明智的。除此之外,

ApacheSpark库支持什么版本的python(2或3)?
如果它支持这两个版本,那么在使用ApacheSpark时使用Python2或Python3是否有任何性能方面的考虑因素?

至少因为Spark 1.2.1默认的python版本是2.7,如果不使用
PYSPARK\u python
PYSPARK\u DRIVER\u python
(请参阅)

Python3自Spark 1.4.0以来一直受支持(请参阅和)

选择一个而不是另一个应该取决于你的需求。如果你不确定,阅读可能是明智的。除此之外,这很可能是一个宽泛而主观的话题