Apache spark 我可以在spark 2.2.*独立群集上运行spark 2.0.*工件吗?
我知道,随着spark主要版本的更改(即从1.*更改为2.*),由于现有API的更改,将出现编译时故障 据我所知,spark保证在进行小版本更新(即2.0.*至2.2.*)时,更改将向后兼容 虽然这将消除升级时编译时失败的可能性,但如果使用使用2.0.*依赖项创建的工件(jar)在spark 2.2.*独立集群上提交作业,是否可以安全地假设不会出现任何运行时失败 如果使用使用2.0.*依赖项创建的工件(jar)在2.2.*集群上提交作业,是否可以安全地假设不会出现任何运行时故障 对 我甚至会说,除非我们讨论内置的Spark独立集群,否则没有Spark集群的概念 换句话说,您将Spark应用程序部署到集群,例如Hadoop Thread或Apache Mesos,作为可能包含或不包含Spark jar的应用程序jar,因此忽略环境中已有的内容Apache spark 我可以在spark 2.2.*独立群集上运行spark 2.0.*工件吗?,apache-spark,Apache Spark,我知道,随着spark主要版本的更改(即从1.*更改为2.*),由于现有API的更改,将出现编译时故障 据我所知,spark保证在进行小版本更新(即2.0.*至2.2.*)时,更改将向后兼容 虽然这将消除升级时编译时失败的可能性,但如果使用使用2.0.*依赖项创建的工件(jar)在spark 2.2.*独立集群上提交作业,是否可以安全地假设不会出现任何运行时失败 如果使用使用2.0.*依赖项创建的工件(jar)在2.2.*集群上提交作业,是否可以安全地假设不会出现任何运行时故障 对 我甚至会说,
然而,如果您确实认为Spark Standalone,那么在版本之间,甚至在2.0和2.2之间,事情可能已经中断,因为Spark应用程序中的JAR必须与Spark workers的JVM上的JAR兼容(它们已经预加载)
我不会声称Spark Standalone版本之间完全兼容。实际上,我说的是Spark单机集群。我会更新问题以避免混淆。如果是关于spark standalone,我不会100%确定。答案已更新。