Warning: file_get_contents(/data/phpspider/zhask/data//catemap/0/hadoop/6.json): failed to open stream: No such file or directory in /data/phpspider/zhask/libs/function.php on line 167

Warning: Invalid argument supplied for foreach() in /data/phpspider/zhask/libs/tag.function.php on line 1116

Notice: Undefined index: in /data/phpspider/zhask/libs/function.php on line 180

Warning: array_chunk() expects parameter 1 to be array, null given in /data/phpspider/zhask/libs/function.php on line 181
Hadoop 使用du命令的HDFS文件系统的大小_Hadoop_Hdfs - Fatal编程技术网

Hadoop 使用du命令的HDFS文件系统的大小

Hadoop 使用du命令的HDFS文件系统的大小,hadoop,hdfs,Hadoop,Hdfs,我知道“du-h”命令以人类可读的格式给出磁盘使用情况。但是请让我知道在我的Hadoop集群的HDFS文件系统上使用“du-h”命令时显示的两个值是什么 [hduser@node2 ~]$ sudo -u hdfs hdfs dfs -du -h / 6.3 K 768.0 M /hbase 0 0 /tmp 371.6 M 743.2

我知道“du-h”命令以人类可读的格式给出磁盘使用情况。但是请让我知道在我的Hadoop集群的HDFS文件系统上使用“du-h”命令时显示的两个值是什么

  [hduser@node2 ~]$ sudo -u hdfs hdfs dfs -du -h /
                    6.3 K    768.0 M  /hbase
                    0        0        /tmp
                    371.6 M  743.2 M  /user
Hbase内目录的输出:

    [hduser@node1 ~]$ sudo -u hdfs hdfs dfs -du -h /hbase/WALs
0    0      /hbase/WALs/hregion-90735520
0    0      /hbase/WALs/node1.example.com,60020,1463323242824
166  512 M  /hbase/WALs/node1.example.com,60020,1464088636041
0    0      /hbase/WALs/node2.example.com,60020,1463321374329
0    0      /hbase/WALs/node2.example.com,60020,1463998874513
0    0      /hbase/WALs/node2.example.com,60020,1464024047168
83   256 M  /hbase/WALs/node2.example.com,60020,1464100746376
[hduser@node1 ~]$
命令

[hduser@node2 ~]$ sudo -u hdfs hdfs dfs -du -h /
du返回了三列,分别是:

+----------+--------------------------------------+----------------+
|  size    |disk_space_consumed_with_all_replicas | full_path_name |
+----------+--------------------------------------+----------------+
|  6.3 K   |   768.0 M                            |    /hbase      |
|  0       |   0                                  |    /tmp        |
|  371.6 M |   743.2 M                            |    /user       |
+----------+--------------------------------------+----------------+