Scala spark sbt编译错误库依赖项

Scala spark sbt编译错误库依赖项,scala,hadoop,apache-spark,sbt-assembly,Scala,Hadoop,Apache Spark,Sbt Assembly,1.2.0-bin-hadoop2.4我的Scala版本是2.11.7。我得到一个错误,所以我不能使用sbt ~/sparksample$ sbt 启动sbt:invoke with-help获取其他选项[info]将当前项目设置为Spark Sample(在构建文件中:/home/beyhan/sparksample/) [info]正在更新{file:/home/beyhan/sparksample/}default-f390c8。。。[信息]解析org.scala lang#scala库

1.2.0-bin-hadoop2.4
我的Scala版本是
2.11.7
。我得到一个错误,所以我不能使用sbt

~/sparksample$ sbt
启动sbt:invoke with-help获取其他选项[info]将当前项目设置为Spark Sample(在构建文件中:/home/beyhan/sparksample/)

[info]正在更新{file:/home/beyhan/sparksample/}default-f390c8。。。[信息]解析org.scala lang#scala库;2.11.7 ... [信息]解析org.apache.spark#spark-core_2.11.7;1.2.0 ... [警告]未找到模块:org.apache.spark#spark-core_2.11.7;1.2.0[警告]==本地:已尝试[警告]/home/beyhan/.ivy2/local/org.apache.spark/spark-core_2.11.7/1.2.0/ivys/ivy.xml[警告]==公共:已尝试[警告]http://repo1.maven.org/maven2/org/apache/spark/spark-core_2.11.7/1.2.0/spark-core_2.11.7-1.2.0.pom [warn]:警告:[warn]::未解析的依赖项::[warn]::::::::::::::::::::::::::[warn]::org.apache.spark#spark-core_2.11.7;1.2.0:找不到[warn]:未找到[warn]:;1.2.0:未找到[错误]总时间:2秒,已完成2015年10月15日上午11:30:47


有什么建议吗?谢谢

没有
spark-core_2.11.7
jar文件。您必须删除spark依赖项中的维护版本号
.7
,因为存在
spark-core_2.11
。所有版本为
2.11
的Scala版本都应兼容

更新 一个最小的sbt文件可能看起来像

name := "Simple Project"

version := "1.0"

scalaVersion := "2.11.7"

libraryDependencies += "org.apache.spark" %% "spark-core" % "1.5.1"

不存在
spark-core_2.11.7
jar文件。您必须删除spark依赖项中的维护版本号
.7
,因为存在
spark-core_2.11
。所有版本为
2.11
的Scala版本都应兼容

更新 一个最小的sbt文件可能看起来像

name := "Simple Project"

version := "1.0"

scalaVersion := "2.11.7"

libraryDependencies += "org.apache.spark" %% "spark-core" % "1.5.1"

[信息]正在更新{file:/home/beyhan/sparksample/}default-f390c8。。。[信息]解析org.scala lang#scala库;2.11.7 ... [信息]解析org.apache.spark#spark-core_2.11.7;1.2.0 ... [警告]未找到模块:org.apache.spark#spark-core_2.11.7;1.2.0[警告]==本地:已尝试[警告]
/home/beyhan/.ivy2/local/org.apache.spark/spark-core_2.11.7/1.2.0/ivys/ivy.xml[warn]====public:trued[warn]

[info]更新{file:/home/beyhan/sparksample/}默认-f390c8。。。[信息]解析org.scala lang#scala库;2.11.7 ... [信息]解析org.apache.spark#spark-core_2.11.7;1.2.0 ... [警告]未找到模块:org.apache.spark#spark-core_2.11.7;1.2.0[警告]==本地:已尝试[警告]
/home/beyhan/.ivy2/local/org.apache.spark/spark-core_2.11.7/1.2.0/ivys/ivy.xml[warn]====public:trued[warn]

As@Till Rohrmann建议您不存在
spark-core_2.11.7
这样的东西,而build.sbt似乎引用了该库

我建议您编辑文件
/home/beyhan/sparksample/build.sbt
,并删除对该库的引用

正确的参考是:

libraryDependencies += "org.apache.spark" % "spark-core_2.11" % "1.2.0"

请记住,
spark-core
不仅没有任何版本的
2.11.7
,而且还有您可能正在使用的其他spark库。

As@Till Rohrmann建议您不存在
spark-core_2.11.7
,而build.sbt似乎引用了该库

我建议您编辑文件
/home/beyhan/sparksample/build.sbt
,并删除对该库的引用

正确的参考是:

libraryDependencies += "org.apache.spark" % "spark-core_2.11" % "1.2.0"

请记住,不仅
spark core
没有任何版本
2.11.7
,而且还有您可能正在使用的其他spark库。

您可以共享您的
build.sbt
和其他sbt文件吗?名称:=“spark示例”版本:=“1.2.0”scalaVersion:=“2.11.7”libraryDependencies+=“org.apache.spark%”“spark-coreıu 2.11.7%”“1.2.0”Hocam bu dosya var ama Bunulla sparkın kendi bulunduıu dosya konumlarıfarklıyerlerde.sıkıntıolur mu
libraryDependencies+=“org.apache.spark”%”spark“spark-coreıu 2.11.7%“1.2.0”
应为
libraryDependencies+=“org.apache.spark.2.0”“
libraryDependencies+=”org.apache.spark“%%”spark core“%%”1.2.0“
。这里没有spark路径这类东西,因为构建spark应用程序(而不仅仅是运行spark应用程序)需要此依赖关系。此外,社区规则强烈要求你用英语提问/回答/评论。你能分享你的
build.sbt
和其他sbt文件吗?名称:=“Spark Sample”版本:=“1.2.0”ScalarAversion:=“2.11.7”libraryDependencies+=“org.apache.Spark”%“Spark-core_2.11.7”%“1.2.0”Hocam bu dosya var ama bunulla sparkın kendi bulunduğu dosya konumlarıfarklıyerlerde.sıkıntıolur mulibraryDependencies+=“org.apache.spark”%“spark-core”+=“1.2.0”应该是
libraryDependencies+=“org.apache.spark.spark”%“spary2.11”
“org.apache.spark”%%“spark核心”%%”1.2.0“。这里没有spark路径这类东西,因为构建spark应用程序(而不仅仅是运行spark应用程序)需要此依赖关系。此外,社区规则强烈要求你用英语提问/回答/评论;2.11:未找到未解析的依赖项:org.scala lang#scala library;2.11:sbt执行期间未找到错误:检索所需库时出错(完整日志请参阅/home/beyhan/.sbt/boot/update.log)[Error]{file:/home/beyhan/sparksample/}default-f390c8/*:scala实例:xsbti.RetrieveException:无法检索scala 2.11[错误]总时间:4秒,10月15日完成,2015 12:01:45 PM错误已更改,但我认为相同的错误:/Scala编译器应保留维护版本号。因此,您的依赖项应该看起来像
scala编译器;2.11.7