Apache spark 如何在HADOOP_CONF_DIR中指定集群位置?

Apache spark 如何在HADOOP_CONF_DIR中指定集群位置?,apache-spark,yarn,Apache Spark,Yarn,提交申请的火花说: 根据--deploy mode的值,以客户端模式或群集模式连接到纱线群集。集群位置将基于HADOOP_CONF_DIR或warn_CONF_DIR变量找到 恐怕我没有弄明白。我发现HADOOP\u CONF\u DIR被设置为/etc/HADOOP,其中包含许多shell脚本和配置文件 我到底应该在哪里找到集群位置?HADOOP_CONF_DIR是HADOOP库用于各种HADOOP特定内容的配置文件所在的目录。我写了各种特定于Hadoop的东西来强调这里没有太多与Spark相

提交申请的火花说:

根据--deploy mode的值,以客户端模式或群集模式连接到纱线群集。集群位置将基于HADOOP_CONF_DIR或warn_CONF_DIR变量找到

恐怕我没有弄明白。我发现
HADOOP\u CONF\u DIR
被设置为
/etc/HADOOP
,其中包含许多shell脚本和配置文件


我到底应该在哪里找到集群位置?

HADOOP_CONF_DIR是HADOOP库用于各种HADOOP特定内容的配置文件所在的目录。我写了各种特定于Hadoop的东西来强调这里没有太多与Spark相关的东西

更重要的是,
HADOOP\u CONF\u DIR
还可以指向一个空目录(表示假定默认值)

要回答您的问题,您可以使用
warn.resourcemanager.address
在中定义集群位置。如果未找到
warn site.xml
,则可以在本地主机上使用纱线群集

我应该在哪里放置
warn site.xml
以便
spark submit
将使用它

我曾经使用
warn\u CONF\u DIR
指向带有
warn site.xml
的目录

YARN_CONF_DIR=/tmp ./bin/spark-shell --master yarn