Apache spark 为什么执行'sbt assembly'失败,并带有'quot;不是有效的命令:assembly";?
我正在尝试安装spark,以便按照以下指南在ipython笔记本中使用spark: 所以我下载了spark,最新版本1.5.2,并运行“BuildSpark”部分。这是我得到的错误消息:Apache spark 为什么执行'sbt assembly'失败,并带有'quot;不是有效的命令:assembly";?,apache-spark,Apache Spark,我正在尝试安装spark,以便按照以下指南在ipython笔记本中使用spark: 所以我下载了spark,最新版本1.5.2,并运行“BuildSpark”部分。这是我得到的错误消息: C:\Users\Administrator\Downloads\spark-1.5.2\sbt>sbt assembly [info] Set current project to sbt (in build file:/C:/Users/Administrator/Downloa ds/spark-
C:\Users\Administrator\Downloads\spark-1.5.2\sbt>sbt assembly
[info] Set current project to sbt (in build file:/C:/Users/Administrator/Downloa
ds/spark-1.4.0/sbt/)
[error] Not a valid command: assembly
[error] Not a valid project ID: assembly
[error] Expected ':' (if selecting a configuration)
[error] Not a valid key: assembly
[error] assembly
[error] ^
我在stakoverflow上遇到了一个类似的问题。然而,最初的问题是在Ubuntu上,而我的问题是在windows上。另外,我没有答案中建议的spark-0.8.1-Cubating文件夹,因此解决方案对我不起作用
请帮忙 原因是您正在
sbt
目录中执行sbt汇编
,该目录是而不是Spark的sbt build主目录(您的情况是C:\Users\Administrator\Downloads\Spark-1.5.2
)
向上走一个目录,即
C:\Users\Administrator\Downloads\spark-1.5.2
,然后执行/sbt/sbt assembly
可能重复的问题与链接问题中的问题完全相同。@Reactomonk但我没有名为spark-0.8.1-incubating的文件夹。我在窗户上。所以,也许这是同样的问题,但我不知道我能做些什么来解决它。如果你知道的话,请分享。你有一个叫做spark-1.4.0
(你确定你有1.5.2?)哦。对不起,实际上我两个都试过了。结果都一样。