一台linux机器上的多Scala版本
我正在从事几个Scala项目和自由一台linux机器上的多Scala版本,scala,apache-spark,Scala,Apache Spark,我正在从事几个Scala项目和自由 其中一些在scala 2.10.x版本上工作,一些在2.11.x版本上工作 我的默认$scala_主版本是2.11,那么如果一个构建在默认情况下是什么,它将在2.11版本中构建(这是真的??) 我的主要问题是ApacheSpark和Kafka在2.10.x版本中运行良好 如何在一台机器上处理多版本依赖关系 谢谢 miki我不会在系统上安装全局Scala,我也没有$Scala\u HOME。我想大多数人都会反对它 如果您使用像sbt这样的构建工具,那么将按照构建
其中一些在scala 2.10.x版本上工作,一些在2.11.x版本上工作 我的默认$scala_主版本是2.11,那么如果一个构建在默认情况下是什么,它将在2.11版本中构建(这是真的??) 我的主要问题是ApacheSpark和Kafka在2.10.x版本中运行良好 如何在一台机器上处理多版本依赖关系 谢谢
miki我不会在系统上安装全局Scala,我也没有
$Scala\u HOME
。我想大多数人都会反对它
如果您使用像sbt这样的构建工具,那么将按照构建定义的要求应用正确的Scala版本。在sbt中,您有一个文件
build.sbt
,其中包含一个赋值scalaVersion:=“2.10.4”
或scalaVersion:=“2.11.5”
,具体取决于您要使用的版本。它将所有不同的Scala版本整齐地分隔在缓存目录中,不会混淆它们 如果它们是单独的SBT或Maven项目,您可以在相应的build.SBT或pom.xml文件中配置相应的scala版本。