Scala 使用sbt在Spark中构建子项目

Scala 使用sbt在Spark中构建子项目,scala,apache-spark,build,sbt,Scala,Apache Spark,Build,Sbt,我想用sbt在Spark中构建子项目。我找到了这个例子,它很有效 $ ./build/sbt -Phive -Phive-thriftserver (build) sbt (spark)> project hive (switch to subproject) sbt (hive)> testOnly *.HiveQuerySuite -- -t foo ( run test case) 但是,我尝试了以下操作,但它没有生成,而是退出 /build/sbt-mllib 我不知道作

我想用sbt在Spark中构建子项目。我找到了这个例子,它很有效

$ ./build/sbt -Phive -Phive-thriftserver  (build)
sbt (spark)> project hive (switch to subproject)
sbt (hive)> testOnly *.HiveQuerySuite -- -t foo ( run test case)
但是,我尝试了以下操作,但它没有生成,而是退出
/build/sbt-mllib

我不知道作者如何理解
-Phive-Phive-thriftserver
。我在Spark源代码中找不到这个

我只想做与示例完全相同的事情,但使用不同的子项目



这不是询问如何使用
项目
打印所有可用项目。

指定项目范围:

./build/sbt mllib/compile
参考: