Scala ApacheSpark中的sparklauncher包?

Scala ApacheSpark中的sparklauncher包?,scala,apache-spark,Scala,Apache Spark,当我使用spark csv执行spark submit时,我使用以下命令 spark-submit --master spark://10.0.0.1:7077 --packages com.databricks:spark-csv_2.11:1.2.0 MyApp.jar (注意:我使用的是——packages com.databricks:spark-csv_2.11:1.2.0) 问题是:我如何使用spark launcher做到这一点(我找不到API中的包信息放在哪里) (以下是我正

当我使用
spark csv
执行
spark submit
时,我使用以下命令

spark-submit --master spark://10.0.0.1:7077 --packages com.databricks:spark-csv_2.11:1.2.0  MyApp.jar
注意:我使用的是
——packages com.databricks:spark-csv_2.11:1.2.0

问题是:我如何使用spark launcher做到这一点(我找不到API中的包信息放在哪里)

(以下是我正在使用的代码)

spark.addSparkArg(“--packages”,“com.databricks:spark-csv_2.11:1.2.0”)

显然你还不能。您可以使用maven shade插件
import org.apache.spark.launcher.SparkLauncher

object Launcher extends App {

  val spark = new SparkLauncher()
  .setSparkHome("/myspark1.5.1path/")
  .setAppResource("/mypath/MyApp.jar")
  .setMainClass("MyApp")
  .setMaster("local[*]")
  .launch()
  spark.waitFor()
}