Warning: file_get_contents(/data/phpspider/zhask/data//catemap/9/java/372.json): failed to open stream: No such file or directory in /data/phpspider/zhask/libs/function.php on line 167

Warning: Invalid argument supplied for foreach() in /data/phpspider/zhask/libs/tag.function.php on line 1116

Notice: Undefined index: in /data/phpspider/zhask/libs/function.php on line 180

Warning: array_chunk() expects parameter 1 to be array, null given in /data/phpspider/zhask/libs/function.php on line 181

Warning: file_get_contents(/data/phpspider/zhask/data//catemap/2/python/338.json): failed to open stream: No such file or directory in /data/phpspider/zhask/libs/function.php on line 167

Warning: Invalid argument supplied for foreach() in /data/phpspider/zhask/libs/tag.function.php on line 1116

Notice: Undefined index: in /data/phpspider/zhask/libs/function.php on line 180

Warning: array_chunk() expects parameter 1 to be array, null given in /data/phpspider/zhask/libs/function.php on line 181
Java ApacheSpark:先决条件问题_Java_Python_Scala_Ubuntu_Hadoop - Fatal编程技术网

Java ApacheSpark:先决条件问题

Java ApacheSpark:先决条件问题,java,python,scala,ubuntu,hadoop,Java,Python,Scala,Ubuntu,Hadoop,我即将在Ubuntu 16.04 LTS上安装Apache Spark 2.1.0。我的目标是一个独立的集群,使用Hadoop、Scala和Python(2.7处于活动状态) 下载时,我可以选择:为hadoop2.7及更高版本预构建(文件为spark-2.1.0-bin-hadoop2.7.tgz) 这个包实际上包括Hadoop2.7吗,还是需要单独安装(首先我假设) 我已经安装了Java JRE 8(其他任务需要)。由于JDK 8似乎也是一个先决条件,我还做了一个“sudo apt inst

我即将在Ubuntu 16.04 LTS上安装Apache Spark 2.1.0。我的目标是一个独立的集群,使用Hadoop、Scala和Python(2.7处于活动状态)

下载时,我可以选择:为hadoop2.7及更高版本预构建(文件为spark-2.1.0-bin-hadoop2.7.tgz)

  • 这个包实际上包括Hadoop2.7吗,还是需要单独安装(首先我假设)

  • 我已经安装了Java JRE 8(其他任务需要)。由于JDK 8似乎也是一个先决条件,我还做了一个“sudo apt install default JDK”,它确实显示为installed:

默认jdk/xenial,现在为2:1.8-56ubuntu2 amd64[已安装]

但是,检查java-version不会显示JDK:

java版本“1.8.0_121” Java(TM)SE运行时环境(build 1.8.0_121-b13) Java HotSpot(TM)64位服务器虚拟机(构建25.121-b13,混合模式)

这足以安装吗?为什么它不显示JDK呢

  • 我想使用Scala 2.12.1。这个版本与Spark2.1/Hadoop 2.7的组合配合得好吗?还是另一个版本更合适

  • 是否还需要Scala SBT包

我一直在努力让每件事都能顺利进行,但我却被困在了这一点上


希望有人能给你一些启示:)

你需要在你正在安装的任何东西上安装更多的hadoop-2.7

Java版本很好


上述配置应适用于scala 2.12.1。

您好,谢谢您的回答。。。Hadoop 2.8.0也能工作吗?我已经安装了SBT,是否还需要为Spark安装Scala 2.12.1(希望使用二进制文件,而不是编译)。再次感谢!