向正在运行的Hadoop集群添加新节点

向正在运行的Hadoop集群添加新节点,hadoop,hdfs,yarn,Hadoop,Hdfs,Yarn,我有一个运行的Hadoop 2.6.0集群,有2个节点和1个主节点。 现在,我正在尝试将另一个节点和另一个节点连接到正在运行的集群 我已经将新节点添加到从属文件中,并通过SSH从主节点访问该节点。 然后我执行: hadoop-daemons.sh --script hdfs start datanode yarn-daemons.sh start nodemanager 我看到datanode和nodemanager在节点上运行,但当我在Master上运行时 hdfs dfsadmin -re

我有一个运行的Hadoop 2.6.0集群,有2个节点和1个主节点。 现在,我正在尝试将另一个节点和另一个节点连接到正在运行的集群

我已经将新节点添加到
从属文件
中,并通过SSH从主节点访问该节点。 然后我执行:

hadoop-daemons.sh --script hdfs start datanode
yarn-daemons.sh start nodemanager
我看到datanode和nodemanager在节点上运行,但当我在Master上运行时

hdfs dfsadmin -report
我只看到2个节点。 有人能帮我解决这个问题吗


提前谢谢

您是否尝试在主节点上运行hdfs dfsadmin-refreshNodes?是的,但没有任何更改。但是“纱线节点列表”返回“3”,您是否设法解决了问题?