使用hadoop 2.7和scala 2.11构建spark 1.6.3
有人知道是否可以用Hadoop2.7构建vanilla spark v1.6.3吗?我这样问是因为我需要将使用Scala 2.11编译的Spark版本部署到已经使用Hadoop 2.7安装的集群中 任何关于如何继续构建Spark的建议都是非常受欢迎的,如果需要,我当然可以分享构建过程的任何细节 非常感谢使用hadoop 2.7和scala 2.11构建spark 1.6.3,hadoop,apache-spark,Hadoop,Apache Spark,有人知道是否可以用Hadoop2.7构建vanilla spark v1.6.3吗?我这样问是因为我需要将使用Scala 2.11编译的Spark版本部署到已经使用Hadoop 2.7安装的集群中 任何关于如何继续构建Spark的建议都是非常受欢迎的,如果需要,我当然可以分享构建过程的任何细节 非常感谢