主节点如何启动hadoop集群中的所有进程?
我已经使用普通的Hadoop建立了一个由5个虚拟机组成的Hadoop集群。群集详细信息如下: 192.168.1.100-配置为运行NameNode和SNN守护进程主节点如何启动hadoop集群中的所有进程?,hadoop,virtualbox,hadoop2,resourcemanager,namenode,Hadoop,Virtualbox,Hadoop2,Resourcemanager,Namenode,我已经使用普通的Hadoop建立了一个由5个虚拟机组成的Hadoop集群。群集详细信息如下: 192.168.1.100-配置为运行NameNode和SNN守护进程 192.168.1.101-配置为运行ResourceManager守护程序。 192.168.1.102-配置为运行DataNode和NodeManager守护程序。 192.168.1.103-配置为运行DataNode和NodeManager守护程序。 192.168.1.104-配置为运行DataNode和NodeManag
192.168.1.101-配置为运行ResourceManager守护程序。
192.168.1.102-配置为运行DataNode和NodeManager守护程序。
192.168.1.103-配置为运行DataNode和NodeManager守护程序。
192.168.1.104-配置为运行DataNode和NodeManager守护程序 我在每个虚拟服务器中保存了主服务器和从服务器文件 大师: 192.168.1.100
192.168.1.101 从属文件: 192.168.1.102
192.168.1.103
192.168.1.104 现在,当我从
NameNode
machine运行start all.sh
命令时,它如何能够启动所有守护进程?我不明白吗?没有安装适配器(或者我不知道),所有机器中都有简单的hadoop JAR,因此NameNode
machine如何能够启动所有机器(虚拟服务器)中的所有守护进程
有人能帮我理解这一点吗?namenode通过SSH连接到从属服务器并运行从属服务器服务。
这就是为什么您需要从机上的
~/.ssh/authorized_keys
中的公共ssh密钥,以便运行Hadoop namenode的用户能够看到它们的私有副本。非常感谢您提供的信息;因此,Namenode通过ssh连接到从属进程,并执行命令来运行从属进程。这种理解正确吗?@CuriousMind是的,没错,就是这样。这就是为什么在hadoop_ENV.sh中通过ENV变量放置某些选项(该文件源于从属文件)。