Apache spark 将Apache Spark版本从1.6升级到2.0
目前我已经安装了Spark版本1.6.2 我想将Spark版本升级到最新的2.0.1。如何在不丢失现有配置的情况下执行此操作Apache spark 将Apache Spark版本从1.6升级到2.0,apache-spark,Apache Spark,目前我已经安装了Spark版本1.6.2 我想将Spark版本升级到最新的2.0.1。如何在不丢失现有配置的情况下执行此操作 任何帮助都将不胜感激。如果其maven或sbt应用程序只需更改spark的依赖版本,并根据2.0迁移代码,这样您就不会丢失配置。对于spark binary,您可以备份配置文件夹。与配置相关的更改不多,一些方法签名已更改,我观察到的主要更改是mapPartitions方法签名和metrics/listener api的一些更改,除了新功能。下载它?Spark并没有真正“安
任何帮助都将不胜感激。如果其maven或sbt应用程序只需更改spark的依赖版本,并根据2.0迁移代码,这样您就不会丢失配置。对于spark binary,您可以备份配置文件夹。与配置相关的更改不多,一些方法签名已更改,我观察到的主要更改是mapPartitions方法签名和metrics/listener api的一些更改,除了新功能。下载它?Spark并没有真正“安装”,因为它只是从他们网站上提取的存档文件中运行。警告:将1.6.x更新为2.xi后,您的代码将无法“正常工作”。如果您刚刚将spark作为单机版安装,则只需在本地安装另一个版本。