Hadoop fs-ls命令获取前10个文件

Hadoop fs-ls命令获取前10个文件,hadoop,hdfs,Hadoop,Hdfs,我有一个hadoop命令,如下所示: hadoop fs -ls /user/hive/warehouse/mashery_db.db/agg_per_mapi_stats_five_minutes/ | sort | awk '{ if (index($8, ".hive") == 0 && $6 <= "'"2016-02-10"'" && $7 <= "'"05:00"'") print $8 }' hadoop fs-ls/user/hiv

我有一个hadoop命令,如下所示:

hadoop fs -ls /user/hive/warehouse/mashery_db.db/agg_per_mapi_stats_five_minutes/ | sort | awk  '{ if (index($8, ".hive") == 0 && $6 <= "'"2016-02-10"'" && $7 <= "'"05:00"'") print $8 }'

hadoop fs-ls/user/hive/warehouse/mashery_db.db/agg_per_mapi_stats_five_minutes/| sort | awk'{if(index($8,.hive”)==0&$6在
head-10的末端添加另一根管道

hadoop fs -ls /stuff | sort | awk whatever | head -10
只用

hadoop fs -ls /path/of/hdfs/location/ | head -10

那就行了。

你说的值是指前10个文件?还有,这些文件有任何模式吗?@SethuSabarish没有模式..是的,前10个文件。没有模式?那么为什么包括awk部分?这个问题被概括为“如何从标准输出中获取前10行”是的,我后来认识到了。