Apache spark spark submit的默认主参数是什么?

Apache spark spark submit的默认主参数是什么?,apache-spark,Apache Spark,如果我将应用程序提交给spark,而不提供-master参数,它将默认为什么 默认情况下-主默认值为无 Property Name Default Meaning spark.master (none) The cluster manager to connect to. See the list of allowed master URL's. 请核对: spark submit脚本可以从属性文件加载默认spark配置值,并将其传递给应用程序。默认情况下,它将从spark目录中的

如果我将应用程序提交给spark,而不提供-master参数,它将默认为什么

默认情况下-主默认值为无

Property Name   Default Meaning
spark.master    (none)  The cluster manager to connect to. See the list of allowed master URL's.
请核对:

spark submit脚本可以从属性文件加载默认spark配置值,并将其传递给应用程序。默认情况下,它将从spark目录中的conf/spark-defaults.conf读取选项


同时检查有效的主选项::

谢谢您的回答。“没有”是什么意思?如果我在我的个人笔记本电脑和集群上提交spark,它的工作方式会有所不同吗?默认行为是什么?行为会是什么?当您提交spark作业而不指定选项时会发生什么?是的,这就是我要问的。如果我在集群上提交spark作业。它是在一个节点上运行我的作业,还是在多个节点上运行?它将从conf/spark-defaults.conf中读取集群级别指定的默认值。打开spark shell,打印spark conf spark.sparkContext.getConf.getAll并查看spark.master值。这是spark shell的默认值,而不是spark submit。我怎么知道它们是一样的?我想我可以用spark submit提交,谢谢。它们是一样的。。。使用:spark submit-verbose查看它。默认值:本地[*]