Maven 如何在脱机环境中构建和安装spark?

Maven 如何在脱机环境中构建和安装spark?,maven,apache-spark,sbt,Maven,Apache Spark,Sbt,我正在尝试在离线集群中安装Spark 1.3.1(完全没有Internet,只有Lan)。然而,我不知道如何从源代码构建它,因为通过maven或sbt都需要网络连接。有人能提供一些帮助或可能的解决方案吗 谢谢。一个简单的解决方案(albiet有点黑)是将其构建在具有internet访问权限的机器上,然后将~/.ivy2中的所有项目复制到仅具有lan访问权限的机器上,以便它可以访问缓存的项目。另一个可能更简单的选择是使用预构建的Spark,因为这是一个可接受的解决方案。感谢您的解决方案。我不想使用

我正在尝试在离线集群中安装Spark 1.3.1(完全没有Internet,只有Lan)。然而,我不知道如何从源代码构建它,因为通过maven或sbt都需要网络连接。有人能提供一些帮助或可能的解决方案吗


谢谢。

一个简单的解决方案(albiet有点黑)是将其构建在具有internet访问权限的机器上,然后将~/.ivy2中的所有项目复制到仅具有lan访问权限的机器上,以便它可以访问缓存的项目。另一个可能更简单的选择是使用预构建的Spark,因为这是一个可接受的解决方案。

感谢您的解决方案。我不想使用预构建的JAR,因为我可能需要更改Spark源代码。有道理,在这种情况下,您可以随时查看Spark项目中的make分发脚本,使JAR成为您自己的。不管怎样,我希望这些方法中的一种最终能对你起作用:)嗯,它变得复杂多了。我正在尝试使用mvn构建,但收到了许多无法访问的网络,即使我复制了~/.m2文件夹下的所有缓存数据。我想知道这是否与我在一台可以上网的机器上编译和构建spark一样,然后将整个文件夹复制到一个没有上网的机器上。那是一样的吗?