Scala “;未解决的依赖关系”;对于SBT上的Spark 2.1.0

Scala “;未解决的依赖关系”;对于SBT上的Spark 2.1.0,scala,intellij-idea,sbt,Scala,Intellij Idea,Sbt,版本:=“1.0”缩放厌恶:=“2.11.8”ivyScala:= ivyScala.value映射{{{uu.copy(overrideScalaVersion=true)} libraryDependencies+=“org.apache.spark”%%“spark核心”%%“2.1.0” 当我试图通过sbt组装jar时,我试图将spark引入我的开发环境,但失败了,在我的sbt中显示了[error],如下所示: [warn] ::::::::::::::::::::::::::::::

版本:=“1.0”
缩放厌恶:=“2.11.8”
ivyScala:= ivyScala.value映射{{{uu.copy(overrideScalaVersion=true)}
libraryDependencies+=“org.apache.spark”%%“spark核心”%%“2.1.0”

当我试图通过sbt组装jar时,我试图将spark引入我的开发环境,但失败了,在我的sbt中显示了[error],如下所示:

[warn]  :::::::::::::::::::::::::::::::::::::::::::::: <br/>
[warn]  ::          UNRESOLVED DEPENDENCIES         :: <br/>
[warn]  :::::::::::::::::::::::::::::::::::::::::::::: <br/>
[warn]  :: org.apache.spark#spark-core_2.11;2.1.0: not found <br/>
[warn]  :::::::::::::::::::::::::::::::::::::::::::::: <br/>
[warn] 
[warn]  Note: Unresolved dependencies path: <br/>
[warn]      org.apache.spark:spark-core_2.11:2.1.0  (D:\MyDocument\IDEA\Scala\model\build.sbt#L9-10) <br/>
[warn]        +- org.apache.spark:spark-catalyst_2.11:2.1.0 <br/>
[warn]        +- org.apache.spark:spark-sql_2.11:2.1.0 (D:\MyDocument\IDEA\Scala\model\build.sbt#L15-16) <br/>
[warn]        +- org.apache.spark:spark-hive_2.11:2.1.0 (D:\MyDocument\IDEA\Scala\model\build.sbt#L11-12) <br/>
[warn]        +- default:producttagmodel_2.11:1.0 <br/>
[trace] Stack trace suppressed: run 'last *:update' for the full output. <br/>
[error] (*:update) sbt.ResolveException: unresolved dependency: org.apache.spark#spark-core_2.11;2.1.0: not found 
[warn]:
[警告]::未解析的依赖项::
[警告]::::::::::::::::: [警告]::org.apache.spark#spark-core_2.11;2.1.0:未找到
[警告]::::::::::::::::: [警告] [警告]注意:未解析的依赖项路径:
[警告]org.apache.spark:spark-core_2.11:2.1.0(D:\MyDocument\IDEA\Scala\model\build.sbt#L9-10)
[警告]+-org.apache.spark:spark-catalyst_2.11:2.1.0
[warn]+-org.apache.spark:spark-sql_2.11:2.1.0(D:\MyDocument\IDEA\Scala\model\build.sbt#L15-16)
[warn]+-org.apache.spark:spark-hive_2.11:2.1.0(D:\MyDocument\IDEA\Scala\model\build.sbt#L11-12)
[警告]+-默认值:producttagmodel_2.11:1.0
[trace]堆栈跟踪被抑制:对完整输出运行“last*:update”
[错误](*:更新)sbt.ResolveException:未解析的依赖项:org.apache.spark#spark-core_2.11;2.1.0:未找到
我的IntelliJ版本是2016.3.5,sbt版本是0.13.13,scala版本是2.11.8;我发现sbt已经成功下载了spark-core.jar,我在我的.ivy/cache目录中找到了它,但它总是显示“未知工件。未解析或索引”。我已经刷新了很多次我的项目索引,但都不起作用。在IntelliJ缓存干扰的情况下,我使用相同的build.sbt创建了一个新项目,但它不起作用。我完全不明白这个问题
下面是我的build.sbt设置:


将依赖项更改为:

libraryDependencies += "org.apache.spark" % "spark-core_2.11" % "2.1.0"

除了spark应用程序之外,它通常被添加为
“提供”
,不应包含在jar中,因为当您提交作业时,驱动程序和执行程序中已经安装了相关的spark LIB。

是的,在提交此问题之前,我已尝试将依赖项作为您的格式。但不幸的是,它不起作用,就像我的一样。