NameNode在启动hadoop后自动关闭

NameNode在启动hadoop后自动关闭,hadoop,hadoop2,Hadoop,Hadoop2,我已经在具有单节点集群配置的linux上安装了hadoop 1.2.1。它运行正常,jps命令显示了所有5个作业的信息 求职者 名称节点 任务跟踪器 次要名称节点 太平绅士 数据节点` 现在,当我使用命令bin/start all.sh启动hadoop时,hadoop会启动所有5个作业,但几秒钟内namenode就会自动关闭 有什么办法可以解决这个问题吗 我检查了namenode日志文件,它显示以下错误: ERROR org.apache.hadoop.hdfs.server.nameno

我已经在具有单节点集群配置的linux上安装了hadoop 1.2.1。它运行正常,
jps
命令显示了所有5个作业的信息

  • 求职者
  • 名称节点
  • 任务跟踪器
  • 次要名称节点
  • 太平绅士
  • 数据节点`
现在,当我使用命令
bin/start all.sh
启动hadoop时,hadoop会启动所有5个作业,但几秒钟内namenode就会自动关闭

有什么办法可以解决这个问题吗

我检查了namenode日志文件,它显示以下错误:

 ERROR org.apache.hadoop.hdfs.server.namenode.NameNode: java.io.IOException: Edit log corruption detected: corruption length = 98362 > toleration length = 0; the corruption is intolerable.

此问题已被多次询问并得到了回答,使用异常消息搜索将得到结果。
在Stackoverflow中提问之前,请通过右上角的搜索选项检查之前是否提出过同类问题。
关于问题陈述,
这很可能是由于您的namenode存储编辑日志和检查点数据的
hadoop.tmp.dir

每次重新启动计算机后,
tmp
文件夹将被许多服务清除,这些服务在再次尝试通过namenode访问时会导致问题。
因此,重新启动后,只有长度为0。
core site.xml
中,将属性
hadoop.tmp.dir
目录更改为其他目录。
参考文献是:

希望有帮助

我已经试过你建议的解决办法了。唯一需要尝试的是格式化namenode。我在上面有很多数据,我正在寻找仍然可以保存我的数据的解决方案。重新启动机器后,您无法再从
temp
文件夹中获取数据。如果您的检查点控制器不是
temp
,则您可以从该文件夹中的fsImage获取数据。