Scala 如何使用spark submit';在IntelliJ IDEA中启动Spark应用程序的s--属性文件选项?
我正在使用Scala和IntelliJ IDE开发的Spark启动一个项目 我想知道如何在IntelliJ配置中使用Spark的特定配置设置Scala 如何使用spark submit';在IntelliJ IDEA中启动Spark应用程序的s--属性文件选项?,scala,apache-spark,intellij-idea,Scala,Apache Spark,Intellij Idea,我正在使用Scala和IntelliJ IDE开发的Spark启动一个项目 我想知道如何在IntelliJ配置中使用Spark的特定配置设置--properties file 我正在阅读这样的配置“param1”->sc.getConf.get(“param1”) 当我从命令行执行Spark作业时,它就像一个符咒: /opt/spark/bin/spark submit--class“com.class.main”--主本地--属性文件properties.conf./target/scala-
--properties file
我正在阅读这样的配置“param1”->sc.getConf.get(“param1”)
当我从命令行执行Spark作业时,它就像一个符咒:
/opt/spark/bin/spark submit--class“com.class.main”--主本地--属性文件properties.conf./target/scala-2.11/main.jar arg1 arg2 arg3 arg4
问题是,当我使用IntelliJ运行配置并使用VM选项执行作业时:
我成功地将--master
参数设置为-Dspark.master=local
我成功地将--conf
参数设置为-Dspark.param1=value1
I使用--属性文件失败
有人能告诉我正确的设置方法吗?我不认为可以使用--properties file
从IntelliJ IDEA内部启动Spark应用程序
spark submit
是提交spark应用程序以供执行的shell脚本,在为spark应用程序创建适当的提交环境之前,它只做一些额外的事情
但是,您可以通过利用spark应用程序默认加载的conf/spark defaults.conf
来模拟--properties file
的行为
您可以在src/test/resources
(或src/main/resources
)下创建内容为properties.conf
的conf/spark defaults.conf
。这应该是可行的。在我的“属性文件”中:spark.param1 value1
并放置在项目根目录中,与build.sbt
处于同一级别。这对我不起作用。最终,我求助于使用VM选项,并使用-D…@datmannz在其中传递所有参数。属性文件保存在哪里?您使用的构建工具是什么?如果是sbt,则将文件保存在src/main/resources/conf/spark defaults.conf
中。这在很大程度上取决于你从哪里开始使用Spark app.OP,你是否使用了它?我正在努力,但是还没有运气@JacekLaskowski感谢您的帮助@你能描述一下你所做的步骤和你看到的错误吗?使用gist.github.com或其他允许给出更长答案的工具(作为评论)。@JacekLaskowski