Warning: file_get_contents(/data/phpspider/zhask/data//catemap/7/rust/4.json): failed to open stream: No such file or directory in /data/phpspider/zhask/libs/function.php on line 167

Warning: Invalid argument supplied for foreach() in /data/phpspider/zhask/libs/tag.function.php on line 1116

Notice: Undefined index: in /data/phpspider/zhask/libs/function.php on line 180

Warning: array_chunk() expects parameter 1 to be array, null given in /data/phpspider/zhask/libs/function.php on line 181

Warning: file_get_contents(/data/phpspider/zhask/data//catemap/4/wpf/12.json): failed to open stream: No such file or directory in /data/phpspider/zhask/libs/function.php on line 167

Warning: Invalid argument supplied for foreach() in /data/phpspider/zhask/libs/tag.function.php on line 1116

Notice: Undefined index: in /data/phpspider/zhask/libs/function.php on line 180

Warning: array_chunk() expects parameter 1 to be array, null given in /data/phpspider/zhask/libs/function.php on line 181
Hadoop Resourcemanager不在其他群集上启动_Hadoop_Yarn_Resourcemanager - Fatal编程技术网

Hadoop Resourcemanager不在其他群集上启动

Hadoop Resourcemanager不在其他群集上启动,hadoop,yarn,resourcemanager,Hadoop,Yarn,Resourcemanager,Hadoop 2.7.1 主节点是cloud1,另一个节点是cloud2 我想这样设置。 cloud1有Namenode、Datanode和Nodemanager。 cloud2有Resourcemanager、Datanode和Nodemanager 我像这样设置了'warn site.xml' <name>yarn.resourcemanager.hostname</name> <value>cloud2</value> <name>

Hadoop 2.7.1

主节点是cloud1,另一个节点是cloud2

我想这样设置。 cloud1有Namenode、Datanode和Nodemanager。 cloud2有Resourcemanager、Datanode和Nodemanager

我像这样设置了'warn site.xml'

<name>yarn.resourcemanager.hostname</name>
<value>cloud2</value>
<name>yarn.resourcemanager.webapp.address</name>
<value>cloud2</value>
<name>yarn.nodemanager.aux-services</name>
<value>mapreduce_shuffle</value>
warn.resourcemanager.hostname
云2
warn.resourcemanager.webapp.address
云2
纱线.节点管理器.辅助服务
mapreduce_shuffle
但是Resourcemanager在本地启动。(在cloud1中)

我不知道为什么会这样

请提供帮助。

请参阅,您应该为NodeManager的主机配置
warn.resourcemanager.nodes。包括路径
,为资源管理器的主机配置
warn.resourcemanager.address
,为数据节点配置
dfs.hosts
,为namenode配置
fs.defaultFS
,并在cloud1和cloud2上执行此操作。请注意,您应该

etc/hadoop/slaves
文件中列出所有从属主机名或IP地址,每行一个


要使用'sbin/start dfs.sh','sbin/start warn.sh'。执行这些说明并告诉我结果。

请参阅[Thread default.xml][1],了解
Thread.resourcemanager.webapp.address
您应该指定端口8088。我的主要问题是:如何启动hadoop恶魔?[1] :@masoumeh我正在用这些命令启动hadoop守护进程。”sbin/start dfs.sh','sbin/start warn.sh'您在cloud1上执行这些命令吗?