Java ApacheSpark:先决条件问题
我即将在Ubuntu 16.04 LTS上安装Apache Spark 2.1.0。我的目标是一个独立的集群,使用Hadoop、Scala和Python(2.7处于活动状态) 下载时,我可以选择:为hadoop2.7及更高版本预构建(文件为spark-2.1.0-bin-hadoop2.7.tgz)Java ApacheSpark:先决条件问题,java,python,scala,ubuntu,hadoop,Java,Python,Scala,Ubuntu,Hadoop,我即将在Ubuntu 16.04 LTS上安装Apache Spark 2.1.0。我的目标是一个独立的集群,使用Hadoop、Scala和Python(2.7处于活动状态) 下载时,我可以选择:为hadoop2.7及更高版本预构建(文件为spark-2.1.0-bin-hadoop2.7.tgz) 这个包实际上包括Hadoop2.7吗,还是需要单独安装(首先我假设) 我已经安装了Java JRE 8(其他任务需要)。由于JDK 8似乎也是一个先决条件,我还做了一个“sudo apt inst
- 这个包实际上包括Hadoop2.7吗,还是需要单独安装(首先我假设)
- 我已经安装了Java JRE 8(其他任务需要)。由于JDK 8似乎也是一个先决条件,我还做了一个“sudo apt install default JDK”,它确实显示为installed:
- 我想使用Scala 2.12.1。这个版本与Spark2.1/Hadoop 2.7的组合配合得好吗?还是另一个版本更合适
- 是否还需要Scala SBT包
希望有人能给你一些启示:)你需要在你正在安装的任何东西上安装更多的hadoop-2.7 Java版本很好
上述配置应适用于scala 2.12.1。您好,谢谢您的回答。。。Hadoop 2.8.0也能工作吗?我已经安装了SBT,是否还需要为Spark安装Scala 2.12.1(希望使用二进制文件,而不是编译)。再次感谢!