我们是否应该在所有节点中更改Hadoop集群的主配置文件和从配置文件?
我知道我们应该把主节点的IP地址放在conf/master文件中,把所有从节点的IP地址放在conf/slaves文件中,每行一个。我的问题是,我们应该只在主节点上执行此操作,还是也应该在所有从节点上更改这两个文件?此外,如果我希望主节点同时作为DataNode和TaskTracker,我是否应该将主节点的IP地址也放在从属文件中,我们是否应该在所有节点中更改Hadoop集群的主配置文件和从配置文件?,hadoop,Hadoop,我知道我们应该把主节点的IP地址放在conf/master文件中,把所有从节点的IP地址放在conf/slaves文件中,每行一个。我的问题是,我们应该只在主节点上执行此操作,还是也应该在所有从节点上更改这两个文件?此外,如果我希望主节点同时作为DataNode和TaskTracker,我是否应该将主节点的IP地址也放在从属文件中,conf/master配置文件应仅在主节点而不是从节点上维护。conf/masters文件用于指定secondarynamenode主机start all.sh由st
conf/master
配置文件应仅在主节点而不是从节点上维护。conf/masters
文件用于指定secondarynamenode
主机start all.sh
由start-mapred.sh和start dfs.sh
组成。如果要在节点上启动Job tracker
,则应在该节点上执行start-mapred.sh脚本,并根据其conf/slaves文件,在所述节点上启动所有Tasktracker
服务
类似地,start dfs.sh
脚本应该在Namenode
机器中执行,基于conf/masters
和conf/slaves
的值,将分别在相应的节点上启动secondarynamenode
和Datanodes