Linux 如何递归地获取目录下所有文件的总大小
我正在使用此命令获取小于17MB的文件:Linux 如何递归地获取目录下所有文件的总大小,linux,hadoop,awk,hdfs,Linux,Hadoop,Awk,Hdfs,我正在使用此命令获取小于17MB的文件: hadoop fsck /admin_test -files | gawk '{if ($2 ~ /^[0-9]+$/ && $2 <= 17825792) print $1,$2;}' hadoop fsck/admin_测试文件 gawk'{if($2~/^[0-9]+$/&&&$2gawk' $2~/^[0-9]+$/&&&$2使用du和--threshold=SIZEarg: -t, --threshold
hadoop fsck /admin_test -files |
gawk '{if ($2 ~ /^[0-9]+$/ && $2 <= 17825792) print $1,$2;}'
hadoop fsck/admin_测试文件
gawk'{if($2~/^[0-9]+$/&&&$2gawk'
$2~/^[0-9]+$/&&&$2使用du
和--threshold=SIZE
arg:
-t, --threshold=SIZE
exclude entries smaller than SIZE if positive, or entries greater than SIZE if negative
大概是这样的:
du -sk --threshold=-17825792 /admin_test
它给出了错误。在hadoop中,它不能像这样使用吹毛求疵:END…sum+0
,以防所有文件都不符合条件。很好。为什么我以前没有见过这个习惯用法?idk,我认为这是一个常见的习惯用法。
du -sk --threshold=-17825792 /admin_test