Scala ApacheSpark中的sparklauncher包?
当我使用Scala ApacheSpark中的sparklauncher包?,scala,apache-spark,Scala,Apache Spark,当我使用spark csv执行spark submit时,我使用以下命令 spark-submit --master spark://10.0.0.1:7077 --packages com.databricks:spark-csv_2.11:1.2.0 MyApp.jar (注意:我使用的是——packages com.databricks:spark-csv_2.11:1.2.0) 问题是:我如何使用spark launcher做到这一点(我找不到API中的包信息放在哪里) (以下是我正
spark csv
执行spark submit
时,我使用以下命令
spark-submit --master spark://10.0.0.1:7077 --packages com.databricks:spark-csv_2.11:1.2.0 MyApp.jar
(注意:我使用的是——packages com.databricks:spark-csv_2.11:1.2.0
)
问题是:我如何使用spark launcher做到这一点(我找不到API中的包信息放在哪里)
(以下是我正在使用的代码)
spark.addSparkArg(“--packages”,“com.databricks:spark-csv_2.11:1.2.0”)
显然你还不能。您可以使用maven shade插件
import org.apache.spark.launcher.SparkLauncher
object Launcher extends App {
val spark = new SparkLauncher()
.setSparkHome("/myspark1.5.1path/")
.setAppResource("/mypath/MyApp.jar")
.setMainClass("MyApp")
.setMaster("local[*]")
.launch()
spark.waitFor()
}