Apache spark 如何将Spark升级到新版本?
我有一个虚拟机,上面有Apache spark 如何将Spark升级到新版本?,apache-spark,Apache Spark,我有一个虚拟机,上面有Spark 1.3,但我想将其升级到Spark 1.5,主要是因为1.3中没有支持某些功能。我是否可以将Spark版本从1.3升级到1.5,如果可以,我该怎么做?预构建的Spark发行版,就像我相信您使用的版本一样,非常容易“升级”,因为Spark实际上并没有“安装”。实际上,你所要做的就是: 合适的Spark发行版(根据您的情况,为Hadoop 2.6及更高版本预先构建) 将tar文件解压到适当的目录中(即文件夹spark-1.3.1-bin-hadoop2.6已经存在
Spark 1.3
,但我想将其升级到Spark 1.5
,主要是因为1.3中没有支持某些功能。我是否可以将Spark
版本从1.3
升级到1.5
,如果可以,我该怎么做?预构建的Spark发行版,就像我相信您使用的版本一样,非常容易“升级”,因为Spark实际上并没有“安装”。实际上,你所要做的就是:
- 合适的Spark发行版(根据您的情况,为Hadoop 2.6及更高版本预先构建)
- 将tar文件解压到适当的目录中(即文件夹
已经存在的位置)spark-1.3.1-bin-hadoop2.6
- 相应地更新您的
(可能还有一些其他环境变量,具体取决于您的设置)SPARK\u HOME
vagrant@sparkvm2:~$ cd $SPARK_HOME
vagrant@sparkvm2:/usr/local/bin/spark-1.3.1-bin-hadoop2.6$ cd ..
vagrant@sparkvm2:/usr/local/bin$ ls
ipcluster ipcontroller2 iptest ipython2 spark-1.3.1-bin-hadoop2.6
ipcluster2 ipengine iptest2 jsonschema
ipcontroller ipengine2 ipython pygmentize
vagrant@sparkvm2:/usr/local/bin$ sudo wget http://apache.tsl.gr/spark/spark-1.5.2/spark-1.5.2-bin-hadoop2.6.tgz
[...]
vagrant@sparkvm2:/usr/local/bin$ ls
ipcluster ipcontroller2 iptest ipython2 spark-1.3.1-bin-hadoop2.6
ipcluster2 ipengine iptest2 jsonschema spark-1.5.2-bin-hadoop2.6.tgz
ipcontroller ipengine2 ipython pygmentize
请注意,您应该与wget
一起使用的确切镜像可能与我的镜像不同,具体取决于您的位置;选择要下载的软件包类型后,单击中的“下载火花”链接即可获得此信息
2) 将tgz
文件用
vagrant@sparkvm2:/usr/local/bin$ sudo tar -xzf spark-1.*.tgz
vagrant@sparkvm2:/usr/local/bin$ ls
ipcluster ipcontroller2 iptest ipython2 spark-1.3.1-bin-hadoop2.6
ipcluster2 ipengine iptest2 jsonschema spark-1.5.2-bin-hadoop2.6
ipcontroller ipengine2 ipython pygmentize spark-1.5.2-bin-hadoop2.6.tgz
您可以看到,现在您有了一个新文件夹,spark-1.5.2-bin-hadoop2.6
3) 相应地更新SPARK\u HOME
(可能还有您正在使用的其他环境变量),以指向此新目录,而不是上一个目录
重新启动机器后,您应该完成此操作
请注意:
sudo
对我来说是必要的;根据您的设置,您可能不需要这样做tgz
文件tgz
文件已被删除,或者修改上面的tar
命令以指向特定文件(即,如上所述的no*
通配符)SPARK\u HOME
设置为/opt/SPARK
spark-2.2.1-bin-hadoop2.7.tgz
——可以使用wget
ln-s/opt/spark-2.2.1/opt/spark
$SPARK_HOME/conf
中的文件对于您下载的每个新版本,只需创建指向它的符号链接(步骤3)
ln-s/opt/spark-x.x/opt/spark