Hadoop 无法将文件放入HDFS中

Hadoop 无法将文件放入HDFS中,hadoop,hdfs,Hadoop,Hdfs,我已经建立了一个2节点hadoop集群。我已经配置了hadoop配置文件。当我在主服务器上启动dfs和Thread时,它会启动namenode(主服务器)和datanode(从服务器)。但是当我在master上运行“jps”时,它不会显示正在运行的数据节点(slave)。但是,datanode实际上正在运行,因为我可以看到它在从机上调用“jps”运行。我已经正确地在主设备和从设备之间建立了SSH通信(从设备可以从主设备访问)。 当我在master上运行“jps”时,它会显示 13218第二名称

我已经建立了一个2节点hadoop集群。我已经配置了hadoop配置文件。当我在主服务器上启动dfs和Thread时,它会启动namenode(主服务器)和datanode(从服务器)。但是当我在master上运行“jps”时,它不会显示正在运行的数据节点(slave)。但是,datanode实际上正在运行,因为我可以看到它在从机上调用“jps”运行。我已经正确地在主设备和从设备之间建立了SSH通信(从设备可以从主设备访问)。 当我在master上运行“jps”时,它会显示

13218第二名称节点
14327日元
12984名称节点

13388 ResourceManager
如果要打开namenode UI,是否看到任何datanodes?是的,它显示类似以下配置的容量:0(0 B)当前容量:0(0 B)剩余DFS:0(0 B)使用的DFS:0(0 B)已复制块下的DFS已使用%:NaN%:0个副本已损坏的块:0缺少块:0页面顶部有一个选项卡,用于显示datanodes。。。但无论如何,如果您使用或可用的空间为0,则它们显然不是集群的一部分。在从机上,查看datanode日志fileStack Overflow是一个用于编程和开发问题的站点。这个问题似乎离题了,因为它与编程或开发无关。请参见帮助中心中的。也许或者会是一个更好的提问的地方。