Recursion 是否可以限制S3 bucket中递归目录列表的深度?

Recursion 是否可以限制S3 bucket中递归目录列表的深度?,recursion,amazon-s3,ls,Recursion,Amazon S3,Ls,我使用了以下命令: aws s3 ls s3://mybucket/mydir --recursive > bigfile 生成的文件太大(9.5MB),无法方便地使用,因为我需要查看我正在查找的信息 我真正需要的是三层以下的信息。是否可以调整此命令,使我只递归N个级别,而不是一路递归每个目录?对于S3 CLI ls命令,我看不到任何类似于-maxdepth的东西 更新:这是我最后用来获取所需信息的命令,尽管我不满意。当我只需要40个左右的唯一值时,它仍然给了我77000个结果,但它足够

我使用了以下命令:

aws s3 ls s3://mybucket/mydir --recursive > bigfile
生成的文件太大(9.5MB),无法方便地使用,因为我需要查看我正在查找的信息

我真正需要的是三层以下的信息。是否可以调整此命令,使我只递归N个级别,而不是一路递归每个目录?对于S3 CLI ls命令,我看不到任何类似于
-maxdepth
的东西

更新:这是我最后用来获取所需信息的命令,尽管我不满意。当我只需要40个左右的唯一值时,它仍然给了我77000个结果,但它足够短,可以移植到excel中,用文本缩减到列,并删除重复项

 aws s3 ls s3://mybucket/mydir --human-readable --summarize --recursive | egrep '*_keytext_*' | tr -s ' ' | cut -d' ' -f5 >smallerfile

AmazonS3没有“级别”的概念。它是一个平面存储系统,路径是对象名称(键)的一部分。但是,一些API调用支持指定
前缀的功能,该前缀可以像查找特定目录一样进行操作

使用
aws s3 ls
的另一种方法是使用,它可以提供每日CSV文件,列出存储桶的内容