Apache spark 如何在HADOOP_CONF_DIR中指定集群位置?
提交申请的火花说: 根据--deploy mode的值,以客户端模式或群集模式连接到纱线群集。集群位置将基于HADOOP_CONF_DIR或warn_CONF_DIR变量找到 恐怕我没有弄明白。我发现Apache spark 如何在HADOOP_CONF_DIR中指定集群位置?,apache-spark,yarn,Apache Spark,Yarn,提交申请的火花说: 根据--deploy mode的值,以客户端模式或群集模式连接到纱线群集。集群位置将基于HADOOP_CONF_DIR或warn_CONF_DIR变量找到 恐怕我没有弄明白。我发现HADOOP\u CONF\u DIR被设置为/etc/HADOOP,其中包含许多shell脚本和配置文件 我到底应该在哪里找到集群位置?HADOOP_CONF_DIR是HADOOP库用于各种HADOOP特定内容的配置文件所在的目录。我写了各种特定于Hadoop的东西来强调这里没有太多与Spark相
HADOOP\u CONF\u DIR
被设置为/etc/HADOOP
,其中包含许多shell脚本和配置文件
我到底应该在哪里找到集群位置?HADOOP_CONF_DIR是HADOOP库用于各种HADOOP特定内容的配置文件所在的目录。我写了各种特定于Hadoop的东西来强调这里没有太多与Spark相关的东西 更重要的是,
HADOOP\u CONF\u DIR
还可以指向一个空目录(表示假定默认值)
要回答您的问题,您可以使用warn.resourcemanager.address
在中定义集群位置。如果未找到warn site.xml
,则可以在本地主机上使用纱线群集
我应该在哪里放置warn site.xml
以便spark submit
将使用它
我曾经使用warn\u CONF\u DIR
指向带有warn site.xml
的目录
YARN_CONF_DIR=/tmp ./bin/spark-shell --master yarn