Recursion 是否可以限制S3 bucket中递归目录列表的深度?
我使用了以下命令:Recursion 是否可以限制S3 bucket中递归目录列表的深度?,recursion,amazon-s3,ls,Recursion,Amazon S3,Ls,我使用了以下命令: aws s3 ls s3://mybucket/mydir --recursive > bigfile 生成的文件太大(9.5MB),无法方便地使用,因为我需要查看我正在查找的信息 我真正需要的是三层以下的信息。是否可以调整此命令,使我只递归N个级别,而不是一路递归每个目录?对于S3 CLI ls命令,我看不到任何类似于-maxdepth的东西 更新:这是我最后用来获取所需信息的命令,尽管我不满意。当我只需要40个左右的唯一值时,它仍然给了我77000个结果,但它足够
aws s3 ls s3://mybucket/mydir --recursive > bigfile
生成的文件太大(9.5MB),无法方便地使用,因为我需要查看我正在查找的信息
我真正需要的是三层以下的信息。是否可以调整此命令,使我只递归N个级别,而不是一路递归每个目录?对于S3 CLI ls命令,我看不到任何类似于-maxdepth
的东西
更新:这是我最后用来获取所需信息的命令,尽管我不满意。当我只需要40个左右的唯一值时,它仍然给了我77000个结果,但它足够短,可以移植到excel中,用文本缩减到列,并删除重复项
aws s3 ls s3://mybucket/mydir --human-readable --summarize --recursive | egrep '*_keytext_*' | tr -s ' ' | cut -d' ' -f5 >smallerfile
AmazonS3没有“级别”的概念。它是一个平面存储系统,路径是对象名称(键)的一部分。但是,一些API调用支持指定
前缀的功能,该前缀可以像查找特定目录一样进行操作
使用aws s3 ls
的另一种方法是使用,它可以提供每日CSV文件,列出存储桶的内容