Google cloud platform 如何获得一个巨大的谷歌云存储桶中所有对象的报告?

Google cloud platform 如何获得一个巨大的谷歌云存储桶中所有对象的报告?,google-cloud-platform,bigdata,google-cloud-storage,Google Cloud Platform,Bigdata,Google Cloud Storage,我有一个包含多个文件夹级别的bucket,其中包含100000个文件(并且不断增长)。我想知道GCS是否有办法导出整个桶的csv报告 例如,AWS S3通过其存储库存使其可用 GCS存储api有一个/list端点,可以在过渡期间提供帮助,但当单个存储桶中有1000-1亿个对象时,它似乎不是一个可扩展的选项?GCP提供了与S3库存类似的服务 来自文档 云资产清单导出服务允许您导出 给定时间段内多个资产的事件更改历史记录。这个 导出的事件更改历史记录显示所有创建、删除和 随时间更新指定资产的事件 下

我有一个包含多个文件夹级别的bucket,其中包含100000个文件(并且不断增长)。我想知道GCS是否有办法导出整个桶的csv报告

例如,AWS S3通过其存储库存使其可用

GCS存储api有一个
/list
端点,可以在过渡期间提供帮助,但当单个存储桶中有1000-1亿个对象时,它似乎不是一个可扩展的选项?

GCP提供了与S3库存类似的服务

来自文档

云资产清单导出服务允许您导出 给定时间段内多个资产的事件更改历史记录。这个 导出的事件更改历史记录显示所有创建、删除和 随时间更新指定资产的事件


下面是一个和一个。

使用
gsutil
可以通过运行以下命令将结果列表保存到csv文件:

gsutil ls -r gs://[BUCKET_NAME] >> list.csv

不过,这将只包含每个对象的完整路径,因此如果您需要vtor建议的更多信息,这是最好的方法。

我尝试了这一方法,但它似乎只列出顶级资产或资源信息,例如bucket或VM,而不列出bucket下的对象。这里有更多信息
gcloud资产导出--help
也有更多信息,这些信息似乎并不表示将所有对象导出到文件的方法。