Warning: file_get_contents(/data/phpspider/zhask/data//catemap/0/hadoop/6.json): failed to open stream: No such file or directory in /data/phpspider/zhask/libs/function.php on line 167

Warning: Invalid argument supplied for foreach() in /data/phpspider/zhask/libs/tag.function.php on line 1116

Notice: Undefined index: in /data/phpspider/zhask/libs/function.php on line 180

Warning: array_chunk() expects parameter 1 to be array, null given in /data/phpspider/zhask/libs/function.php on line 181
Linux 如何递归地获取目录下所有文件的总大小_Linux_Hadoop_Awk_Hdfs - Fatal编程技术网

Linux 如何递归地获取目录下所有文件的总大小

Linux 如何递归地获取目录下所有文件的总大小,linux,hadoop,awk,hdfs,Linux,Hadoop,Awk,Hdfs,我正在使用此命令获取小于17MB的文件: hadoop fsck /admin_test -files | gawk '{if ($2 ~ /^[0-9]+$/ && $2 <= 17825792) print $1,$2;}' hadoop fsck/admin_测试文件 gawk'{if($2~/^[0-9]+$/&&&$2gawk' $2~/^[0-9]+$/&&&$2使用du和--threshold=SIZEarg: -t, --threshold

我正在使用此命令获取小于17MB的文件:

hadoop fsck /admin_test -files | 
gawk '{if ($2 ~ /^[0-9]+$/ && $2 <= 17825792) print $1,$2;}'
hadoop fsck/admin_测试文件 gawk'{if($2~/^[0-9]+$/&&&$2
gawk'

$2~/^[0-9]+$/&&&$2使用
du
--threshold=SIZE
arg:

       -t, --threshold=SIZE
          exclude entries smaller than SIZE if positive, or entries greater than SIZE if negative
大概是这样的:

du -sk --threshold=-17825792 /admin_test

它给出了错误。在hadoop中,它不能像这样使用吹毛求疵:
END…sum+0
,以防所有文件都不符合条件。很好。为什么我以前没有见过这个习惯用法?idk,我认为这是一个常见的习惯用法。
du -sk --threshold=-17825792 /admin_test