Windows 7 “为什么?”;sbt组件“;stax-api.jar的ResolveException失败?

Windows 7 “为什么?”;sbt组件“;stax-api.jar的ResolveException失败?,windows-7,sbt,apache-spark,Windows 7,Sbt,Apache Spark,运行sbt assembly时,该命令会运行一段时间,并在Windows 7上引发以下错误: [warn] Strategy 'discard' was applied to 4 files [warn] Strategy 'first' was applied to 199 files [info] Assembly up to date: C:\spark_\spark-1.0.2\assembly\target\scala-2.10\spark-assembly-1.0.2-hadoop1

运行
sbt assembly
时,该命令会运行一段时间,并在Windows 7上引发以下错误:

[warn] Strategy 'discard' was applied to 4 files
[warn] Strategy 'first' was applied to 199 files
[info] Assembly up to date: C:\spark_\spark-1.0.2\assembly\target\scala-2.10\spark-assembly-1.0.2-hadoop1.0.4.jar
sbt.ResolveException: download failed: javax.xml.stream#stax-api;1.0-2!stax-api.jar
    at sbt.IvyActions$.sbt$IvyActions$$resolve(IvyActions.scala:217)
    at sbt.IvyActions$$anonfun$update$1.apply(IvyActions.scala:126)

关于如何解决这个问题,有什么想法吗?

在sbt组装之前运行sbt clean解决了上述问题。

有一节下载说:

如果您想从头开始构建Spark,请访问

在这里,您可以找到适合我的命令(就在两天前,在使用Java 8的Mac OS X上):


p、 不过,我希望他们坚持使用sbt作为官方版本的构建工具。

我很好奇,你从哪里发现,要在Windows上安装Apache Spark,你需要执行
sbt/sbt assembly
?@JacekLaskowski我将我的问题编辑为只使用sbt assembly。我在windows中安装了sbt,然后执行了上面的命令。它运行了一段时间,然后抛出上面的错误。@samthebest:我能够在linux中运行spark而没有任何问题。但问题是,sbt构建与windows相比花费了很多时间,懒于调试。原因是,我认为我会坚持使用windows只是为了玩spark。提示:使用
sbt编译
sbt测试
,以避免完整的
程序集
。是的,
sbt
可能是一个真正的痛苦,构建它需要花费很长时间,我也从来没有试过调试它,因为构建工具通常是撒旦的产物。当我需要进行完整构建时,我只需查看我的电子邮件,或者找到一些需要关闭的选项卡,等等。我还要注意,一般来说,您应该使用Maven来构建Spark。@SeanOwen请您解释一下为什么要使用Maven好吗?只是想了解一下。Maven将SBT替换为用于创建发行版的构建引用,因此如果您尝试构建自己的发行版会更好。
mvn -Pyarn -Phadoop-2.4 -Dhadoop.version=2.4.0 -DskipTests clean package