Apache spark 多个SPARK安装和SCALA依赖项
我正在考虑在我的虚拟机上安装SPARK 2.x 但是,我是否需要再次专门安装Scala 我有SPARK 1.6,它调用Scala 2.10,但我找不到Scala bin/library等的位置,因此我是否可以重用它?查找显示了许多位置下的许多scala文件和引用,例如Hadoop位置:Apache spark 多个SPARK安装和SCALA依赖项,apache-spark,Apache Spark,我正在考虑在我的虚拟机上安装SPARK 2.x 但是,我是否需要再次专门安装Scala 我有SPARK 1.6,它调用Scala 2.10,但我找不到Scala bin/library等的位置,因此我是否可以重用它?查找显示了许多位置下的许多scala文件和引用,例如Hadoop位置: /home/cloudera/.ivy2/cache/org.scala-lang/scala-compiler 如果scala-version没有显示任何内容,则教程都指向安装 寻找指导。注意:这与SBT无
/home/cloudera/.ivy2/cache/org.scala-lang/scala-compiler
如果scala-version没有显示任何内容,则教程都指向安装
寻找指导。注意:这与SBT无关。Scala依赖项是Spark的编译时依赖项
您无需安装Scala即可运行Spark shell或带有Spark submit的应用程序。@BluePhantom它已经知道它是使用特定版本编译的,并将此版本保存在pom文件中,这意味着我正在阅读的帖子不正确或不再有效@gemelenI不知道作者为什么将Scala添加到安装中步骤。spark shell和spark submit都不需要Scala罐。唯一的建议是,教程希望你们在同一台主机上删除你们的应用程序。然后我明白了,就像我一直认为的那个样——我被愚弄了。谢谢