Hadoop namenode可以';不要离开安全模式

Hadoop namenode可以';不要离开安全模式,hadoop,Hadoop,全部 我使用hadoop2.6.0 当我强制hadoop离开安全模式时,使用hdfs dfsadmin-safemode leave,它显示安全模式已关闭,但我仍然无法删除目录中的文件,结果显示: rm:无法删除/mei/app-20151013055617-0001-614d554c-cc04-4800-9be8-7d9b3fd3fcef。名称节点处于安全模式。 我试图用在互联网上列出的方式来解决这个问题,但它不起作用 我使用命令“hdfs dfsadmin-report”,它显示:

全部

我使用hadoop2.6.0

当我强制hadoop离开安全模式时,使用
hdfs dfsadmin-safemode leave
,它显示
安全模式已关闭
,但我仍然无法删除目录中的文件,结果显示:
rm:无法删除/mei/app-20151013055617-0001-614d554c-cc04-4800-9be8-7d9b3fd3fcef。名称节点处于安全模式。
我试图用在互联网上列出的方式来解决这个问题,但它不起作用

我使用命令“hdfs dfsadmin-report”,它显示:

    Safe mode is ON
    Configured Capacity: 52710469632 (49.09 GB)
    Present Capacity: 213811200 (203.91 MB)
    DFS Remaining: 0 (0 B)
    DFS Used: 213811200 (203.91 MB)
    DFS Used%: 100.00%
    Under replicated blocks: 39
    Blocks with corrupt replicas: 0
    Missing blocks: 0

    -------------------------------------------------
    Live datanodes (1):

    Name: 127.0.0.1:50010 (bdrhel6)
    Hostname: bdrhel6
    Decommission Status : Normal
    Configured Capacity: 52710469632 (49.09 GB)
    DFS Used: 213811200 (203.91 MB)
    Non DFS Used: 52496658432 (48.89 GB)
    DFS Remaining: 0 (0 B)
    DFS Used%: 0.41%
    DFS Remaining%: 0.00%
    Configured Cache Capacity: 0 (0 B)
    Cache Used: 0 (0 B)
    Cache Remaining: 0 (0 B)
    Cache Used%: 100.00%
    Cache Remaining%: 0.00%
    Xceivers: 1
    Last contact: Wed Oct 14 03:30:33 EDT 2015
有人有同样的问题吗


请提供任何帮助。

安全模式
是一种
HDFS
状态,其中文件系统以只读方式安装;不执行复制,也不能创建或删除文件。当
NameNode
启动时会自动输入,以便在
NameNode确定哪些块正在被复制之前,允许所有
时间与NameNode签入并宣布它们持有哪些块,等。
名称节点
等待,直到出现并说明特定百分比的块;这在配置中由dfs.safemode.threshold.pct参数控制。满足此
阈值后,
安全模式将自动退出,HDFS允许正常操作

1. Below command forces the NameNode to exit safemode

   hdfs dfsadmin -safemode leave

2. Run hdfs fsck -move or hdfs fsck -delete to move or delete corrupted files.
根据该报告,NN上的资源似乎不足。添加或释放更多资源,然后手动关闭安全模式
如果在添加更多资源或释放资源之前关闭安全模式,NameNode将立即返回安全模式

参考:


  • 我也面临同样的问题。这是因为hadoop没有磁盘空间来运行新命令来操作文件。 由于hadoop处于安全模式,我甚至无法删除hadoop中的文件。 我使用的是cloudera版本的hadoop,所以我首先删除了cloudera文件系统中的几个文件。这释放了一些空间。然后我执行了以下命令:

        [cloudera@quickstart ~]$ hdfs dfsadmin -safemode leave | hadoop fs -rm -r <file on hdfs to be deleted>
    
    [cloudera@quickstart~]$hdfs dfsadmin-safemode离开| hadoop fs-rm-r
    
    这对我有用! HTH运行:

    hdfs dfsadmin-安全模式强制退出


    为我做了这个把戏。

    看来datanode没有足够的内存来存储更多的数据。释放内存或在集群中添加另一个datanode。