Warning: file_get_contents(/data/phpspider/zhask/data//catemap/9/google-cloud-platform/3.json): failed to open stream: No such file or directory in /data/phpspider/zhask/libs/function.php on line 167

Warning: Invalid argument supplied for foreach() in /data/phpspider/zhask/libs/tag.function.php on line 1116

Notice: Undefined index: in /data/phpspider/zhask/libs/function.php on line 180

Warning: array_chunk() expects parameter 1 to be array, null given in /data/phpspider/zhask/libs/function.php on line 181
Google cloud platform 从Google云存储中删除大型文件夹_Google Cloud Platform_Google Cloud Storage - Fatal编程技术网

Google cloud platform 从Google云存储中删除大型文件夹

Google cloud platform 从Google云存储中删除大型文件夹,google-cloud-platform,google-cloud-storage,Google Cloud Platform,Google Cloud Storage,我在谷歌云存储桶中有一个文件夹,其中有数百万个文件需要删除 删除这个大文件夹文件的有效方法是什么,而不必删除整个bucket 我尝试过使用gsutil rm命令,但似乎要花很长时间才能完成删除所有文件 此外,我还了解了对象生命周期管理策略,但我了解到它们适用于整个bucket,而不是任何特定的文件夹 谢谢你的帮助!: gsutil rm将是最快的。您唯一的选择是编写代码列出并删除每一个,这就是gsutil将为您做的。gsutil rm将是最快的。您唯一的选择是编写代码列出并删除每一个,这就是gs

我在谷歌云存储桶中有一个文件夹,其中有数百万个文件需要删除

删除这个大文件夹文件的有效方法是什么,而不必删除整个bucket

我尝试过使用gsutil rm命令,但似乎要花很长时间才能完成删除所有文件

此外,我还了解了对象生命周期管理策略,但我了解到它们适用于整个bucket,而不是任何特定的文件夹


谢谢你的帮助!:

gsutil rm将是最快的。您唯一的选择是编写代码列出并删除每一个,这就是gsutil将为您做的。

gsutil rm将是最快的。您唯一的选择是编写代码列出并删除每一个,这就是gsutil将为您做的。

一个加速此过程的建议。在同一区域中启动计算引擎实例,并在GCE实例中运行gcloud rm命令。用于删除对象的REST API调用的数据包大小很小。同一区域内的低延迟和高带宽将在总命令执行时间上产生巨大差异。是的,这就是我现在正在做的,谢谢你的建议!:现在似乎不推荐使用gsutil rm,正如在的最佳实践中所指出的,如果要批量删除十万个或更多对象,请避免使用gsutil,因为该过程需要很长时间才能完成。相反,使用。。。云控制台。。。或对象生命周期管理。举个例子,你知道RESTAPI可以代替在云控制台中点击来完成这项工作吗?一个加速这项工作的建议。在同一区域中启动计算引擎实例,并在GCE实例中运行gcloud rm命令。用于删除对象的REST API调用的数据包大小很小。同一区域内的低延迟和高带宽将在总命令执行时间上产生巨大差异。是的,这就是我现在正在做的,谢谢你的建议!:现在似乎不推荐使用gsutil rm,正如在的最佳实践中所指出的,如果要批量删除十万个或更多对象,请避免使用gsutil,因为该过程需要很长时间才能完成。相反,使用。。。云控制台。。。或对象生命周期管理。举个例子,你知道RESTAPI是哪一个而不是在云控制台中点击来完成这项工作的吗?