Hadoop数据节点未连接到主节点

Hadoop数据节点未连接到主节点,hadoop,cloudera,Hadoop,Cloudera,我有一个2节点群集设置。一个是主从式,另一个是从式。 名称节点服务已启动 从节点未连接到主节点,导致错误 slave:/usr/lib/hadoop-0.20/conf tailf/usr/lib/hadoop-0.20/logs/hadoop-hadoop-datanode-slave.log 2014-03-02 10:43:07816 INFO org.apache.hadoop.ipc.Client:正在重试连接到服务器:master-slave/192.168.1.118:54310。

我有一个2节点群集设置。一个是主从式,另一个是从式。 名称节点服务已启动

从节点未连接到主节点,导致错误

slave:/usr/lib/hadoop-0.20/conf tailf/usr/lib/hadoop-0.20/logs/hadoop-hadoop-datanode-slave.log 2014-03-02 10:43:07816 INFO org.apache.hadoop.ipc.Client:正在重试连接到服务器:master-slave/192.168.1.118:54310。已经试过4次了。 2014-03-02 10:43:08817 INFO org.apache.hadoop.ipc.Client:正在重试连接到服务器:master-slave/192.168.1.118:54310。已经试过5次了。 2014-03-02 10:43:09820 INFO org.apache.hadoop.ipc.Client:正在重试连接到服务器:master-slave/192.168.1.118:54310。已经试过6次了。 2014-03-02 10:43:10821 INFO org.apache.hadoop.ipc.Client:正在重试连接到服务器:master-slave/192.168.1.118:54310。已经试过7次了

a。 主从:/usr/lib/hadoop/conf lsof-i:54310 命令PID用户FD类型设备大小/关闭节点名称 java 3080 hdfs 62u IPv4 22507 0t0 TCP主从:54310侦听

b。关于core-site.xml中的Slave

fs.default.name hdfs://master-slave:54310 默认文件系统的名称。要么 文本字符串本地或主机:NDFS的端口。 符合事实的

c。从节点中的主节点/etc/hostssame

主从:/usr/lib/hadoop/conf cat/etc/hosts 127.0.0.1本地主机 127.0.1.1主从式 192.168.1.118主从式 192.168.1.120从机

d。我已禁用IPV6

e。我无法从一个从机到另一个主从机对端口54310进行远程登录,但可以在端口22上进行远程登录


看起来很奇怪,请帮我解决这个问题。我已经做了我所知道的每一个改变,但没有运气

为了便于将来参考,这里的问题是由于主机文件编辑文件并删除此条目

127.0.1.1 master-slave 

删除后,它可以正常工作。

从master发布netstat-nlp的输出日志中是否有其他错误???这是你第一次启动hadoop集群或者在它运行之前?谢谢你的回复。这是netstat@VikasHardia的输出,日志中没有其他错误。这是我第一次启动这个集群。仅供参考,还添加了从属文件config fileComment 127.0.1.1 master-slave中的节点,并在hosts文件中的两台机器上进行了注释,然后重试again@VikasHardia .. 127.0.1.1主从仅在主从节点中存在。我把它取下来,开始工作。谢谢