Apache spark SPARK在Ambari HDP 2.5.0中单独升级至2.1.0

Apache spark SPARK在Ambari HDP 2.5.0中单独升级至2.1.0,apache-spark,pyspark,hadoop2,ambari,Apache Spark,Pyspark,Hadoop2,Ambari,我想将SPark组件从Ambari中默认的2.0.x.2.5升级到2.1.0 我将HDP2.5.0与Ambari 2.4.2一起使用 欢迎您提出任何实现此目标的想法。HDP2.5附带Spark 2.0和Spark 1.6.x的技术预览。如果您不想使用这些版本中的任何一个,并且希望Ambari为您管理服务,那么您需要为您想要的Spark版本编写自定义服务。如果您不想让ambari管理Spark实例,可以按照上提供的类似说明,在不进行管理的情况下手动安装Spark 2.x。较新版本的ambari(可

我想将SPark组件从Ambari中默认的2.0.x.2.5升级到2.1.0

我将HDP2.5.0与Ambari 2.4.2一起使用


欢迎您提出任何实现此目标的想法。

HDP2.5附带Spark 2.0和Spark 1.6.x的技术预览。如果您不想使用这些版本中的任何一个,并且希望Ambari为您管理服务,那么您需要为您想要的Spark版本编写自定义服务。如果您不想让ambari管理Spark实例,可以按照上提供的类似说明,在不进行管理的情况下手动安装Spark 2.x。

较新版本的ambari(可能是3.0)可能支持每个组件升级/多个组件版本


有关详细信息,请参阅。

升级到HDP 2.6是一个选项吗?不,实际上我们应该只更新单个服务。