Warning: file_get_contents(/data/phpspider/zhask/data//catemap/2/scala/17.json): failed to open stream: No such file or directory in /data/phpspider/zhask/libs/function.php on line 167

Warning: Invalid argument supplied for foreach() in /data/phpspider/zhask/libs/tag.function.php on line 1116

Notice: Undefined index: in /data/phpspider/zhask/libs/function.php on line 180

Warning: array_chunk() expects parameter 1 to be array, null given in /data/phpspider/zhask/libs/function.php on line 181
Scala 如何使用spark submit';在IntelliJ IDEA中启动Spark应用程序的s--属性文件选项?_Scala_Apache Spark_Intellij Idea - Fatal编程技术网

Scala 如何使用spark submit';在IntelliJ IDEA中启动Spark应用程序的s--属性文件选项?

Scala 如何使用spark submit';在IntelliJ IDEA中启动Spark应用程序的s--属性文件选项?,scala,apache-spark,intellij-idea,Scala,Apache Spark,Intellij Idea,我正在使用Scala和IntelliJ IDE开发的Spark启动一个项目 我想知道如何在IntelliJ配置中使用Spark的特定配置设置--properties file 我正在阅读这样的配置“param1”->sc.getConf.get(“param1”) 当我从命令行执行Spark作业时,它就像一个符咒: /opt/spark/bin/spark submit--class“com.class.main”--主本地--属性文件properties.conf./target/scala-

我正在使用Scala和IntelliJ IDE开发的Spark启动一个项目

我想知道如何在IntelliJ配置中使用Spark的特定配置设置
--properties file

我正在阅读这样的配置
“param1”->sc.getConf.get(“param1”)

当我从命令行执行Spark作业时,它就像一个符咒:
/opt/spark/bin/spark submit--class“com.class.main”--主本地--属性文件properties.conf./target/scala-2.11/main.jar arg1 arg2 arg3 arg4

问题是,当我使用IntelliJ运行配置并使用
VM选项执行作业时:

  • 我成功地将
    --master
    参数设置为
    -Dspark.master=local
  • 我成功地将
    --conf
    参数设置为
    -Dspark.param1=value1
  • I使用
    --属性文件失败

  • 有人能告诉我正确的设置方法吗?

    我不认为可以使用
    --properties file
    从IntelliJ IDEA内部启动Spark应用程序

    spark submit
    是提交spark应用程序以供执行的shell脚本,在为spark应用程序创建适当的提交环境之前,它只做一些额外的事情

    但是,您可以通过利用spark应用程序默认加载的
    conf/spark defaults.conf
    来模拟
    --properties file
    的行为


    您可以在
    src/test/resources
    (或
    src/main/resources
    )下创建内容为
    properties.conf
    conf/spark defaults.conf
    。这应该是可行的。

    在我的“属性文件”中:
    spark.param1 value1
    并放置在项目根目录中,与
    build.sbt
    处于同一级别。这对我不起作用。最终,我求助于使用VM选项,并使用-D…@datmannz在其中传递所有参数。属性文件保存在哪里?您使用的构建工具是什么?如果是sbt,则将文件保存在
    src/main/resources/conf/spark defaults.conf
    中。这在很大程度上取决于你从哪里开始使用Spark app.OP,你是否使用了它?我正在努力,但是还没有运气@JacekLaskowski感谢您的帮助@你能描述一下你所做的步骤和你看到的错误吗?使用gist.github.com或其他允许给出更长答案的工具(作为评论)。@JacekLaskowski