我们是否应该在所有节点中更改Hadoop集群的主配置文件和从配置文件?

我们是否应该在所有节点中更改Hadoop集群的主配置文件和从配置文件?,hadoop,Hadoop,我知道我们应该把主节点的IP地址放在conf/master文件中,把所有从节点的IP地址放在conf/slaves文件中,每行一个。我的问题是,我们应该只在主节点上执行此操作,还是也应该在所有从节点上更改这两个文件?此外,如果我希望主节点同时作为DataNode和TaskTracker,我是否应该将主节点的IP地址也放在从属文件中,conf/master配置文件应仅在主节点而不是从节点上维护。conf/masters文件用于指定secondarynamenode主机start all.sh由st

我知道我们应该把主节点的IP地址放在conf/master文件中,把所有从节点的IP地址放在conf/slaves文件中,每行一个。我的问题是,我们应该只在主节点上执行此操作,还是也应该在所有从节点上更改这两个文件?此外,如果我希望主节点同时作为DataNode和TaskTracker,我是否应该将主节点的IP地址也放在从属文件中,
conf/master
配置文件应仅在主节点而不是从节点上维护。
conf/masters
文件用于指定
secondarynamenode
主机
start all.sh
start-mapred.sh和start dfs.sh
组成。如果要在节点上启动
Job tracker
,则应在该节点上执行start-mapred.sh脚本,并根据其conf/slaves文件,在所述节点上启动所有
Tasktracker
服务

类似地,
start dfs.sh
脚本应该在
Namenode
机器中执行,基于
conf/masters
conf/slaves
的值,将分别在相应的节点上启动
secondarynamenode
Datanodes