Hadoop namenode可以';不要离开安全模式
全部 我使用hadoop2.6.0 当我强制hadoop离开安全模式时,使用Hadoop namenode可以';不要离开安全模式,hadoop,Hadoop,全部 我使用hadoop2.6.0 当我强制hadoop离开安全模式时,使用hdfs dfsadmin-safemode leave,它显示安全模式已关闭,但我仍然无法删除目录中的文件,结果显示: rm:无法删除/mei/app-20151013055617-0001-614d554c-cc04-4800-9be8-7d9b3fd3fcef。名称节点处于安全模式。 我试图用在互联网上列出的方式来解决这个问题,但它不起作用 我使用命令“hdfs dfsadmin-report”,它显示:
hdfs dfsadmin-safemode leave
,它显示安全模式已关闭
,但我仍然无法删除目录中的文件,结果显示:
rm:无法删除/mei/app-20151013055617-0001-614d554c-cc04-4800-9be8-7d9b3fd3fcef。名称节点处于安全模式。
我试图用在互联网上列出的方式来解决这个问题,但它不起作用
我使用命令“hdfs dfsadmin-report”,它显示:
Safe mode is ON
Configured Capacity: 52710469632 (49.09 GB)
Present Capacity: 213811200 (203.91 MB)
DFS Remaining: 0 (0 B)
DFS Used: 213811200 (203.91 MB)
DFS Used%: 100.00%
Under replicated blocks: 39
Blocks with corrupt replicas: 0
Missing blocks: 0
-------------------------------------------------
Live datanodes (1):
Name: 127.0.0.1:50010 (bdrhel6)
Hostname: bdrhel6
Decommission Status : Normal
Configured Capacity: 52710469632 (49.09 GB)
DFS Used: 213811200 (203.91 MB)
Non DFS Used: 52496658432 (48.89 GB)
DFS Remaining: 0 (0 B)
DFS Used%: 0.41%
DFS Remaining%: 0.00%
Configured Cache Capacity: 0 (0 B)
Cache Used: 0 (0 B)
Cache Remaining: 0 (0 B)
Cache Used%: 100.00%
Cache Remaining%: 0.00%
Xceivers: 1
Last contact: Wed Oct 14 03:30:33 EDT 2015
有人有同样的问题吗
请提供任何帮助。
安全模式
是一种HDFS
状态,其中文件系统以只读方式安装;不执行复制,也不能创建或删除文件。当NameNode
启动时会自动输入,以便在NameNode
确定哪些块正在被复制之前,允许所有
时间与NameNode签入并宣布它们持有哪些块,等。名称节点
等待,直到出现并说明特定百分比的块;这在配置中由dfs.safemode.threshold.pct参数控制。满足此阈值后,安全模式将自动退出,HDFS允许正常操作
1. Below command forces the NameNode to exit safemode
hdfs dfsadmin -safemode leave
2. Run hdfs fsck -move or hdfs fsck -delete to move or delete corrupted files.
根据该报告,NN上的资源似乎不足。添加或释放更多资源,然后手动关闭安全模式如果在添加更多资源或释放资源之前关闭安全模式,NameNode将立即返回安全模式
参考:
我也面临同样的问题。这是因为hadoop没有磁盘空间来运行新命令来操作文件。
由于hadoop处于安全模式,我甚至无法删除hadoop中的文件。
我使用的是cloudera版本的hadoop,所以我首先删除了cloudera文件系统中的几个文件。这释放了一些空间。然后我执行了以下命令:
[cloudera@quickstart ~]$ hdfs dfsadmin -safemode leave | hadoop fs -rm -r <file on hdfs to be deleted>
[cloudera@quickstart~]$hdfs dfsadmin-safemode离开| hadoop fs-rm-r
这对我有用!
HTH运行:
hdfs dfsadmin-安全模式强制退出
为我做了这个把戏。看来datanode没有足够的内存来存储更多的数据。释放内存或在集群中添加另一个datanode。