datanode可用:安装hadoop时为0

datanode可用:安装hadoop时为0,hadoop,Hadoop,我想在单个节点上安装hadoop-0.23.5,但在启动namenode和datanode后,显示可用的datanode为0: Configured Capacity: 0 (0 KB) Present Capacity: 0 (0 KB) DFS Remaining: 0 (0 KB) DFS Used: 0 (0 KB) DFS Used%: �% Under replicated blocks: 0 Blocks with corrupt replicas: 0 Missing blo

我想在单个节点上安装hadoop-0.23.5,但在启动namenode和datanode后,显示可用的datanode为0:

Configured Capacity: 0 (0 KB) Present Capacity: 0 (0 KB) DFS Remaining: 0 (0 KB) DFS Used: 0 (0 KB) DFS Used%: �% Under replicated blocks: 0 Blocks with corrupt replicas: 0 Missing blocks: 0

Datanodes available: 0 (0 total, 0 dead)
我检查了datanode日志文件,以下是错误:

FATAL org.apache.hadoop.hdfs.server.datanode.DataNode: Exception in secureMain
java.io.IOException: Incorrect configuration: namenode address dfs.namenode.servicerpc-address or dfs.namenode.rpc-address is not configured.
我在hdfs-site.xml中设置了dfs.namenode.rpc-address,但我不明白问题出在哪里。有人知道我如何解决这个问题吗。

您可能遇到了受影响的0.23版本


您需要做的是更新core default.xml中的
fs.default.name
,我将fs.default.name设置为“hdfs://localhost:9000,我也把它改成了hdfs://n1:9000“,但这并不能解决问题。我有单节点和/etc/hosts设置为:127.0.0.1 localhost.localdomain localhost 192.168.186.139 n1更改此值后是否重新启动群集?您也可以尝试将其放入core-site.xml中。是的,我重新启动集群,还有其他建议吗?如何在core-site.xml中设置主机?它的价值是什么?您可以发布core-site.xml和hdfs-site.xml的内容吗?还有“netstat-alnp | grep9000”的输出?