Warning: file_get_contents(/data/phpspider/zhask/data//catemap/2/spring/11.json): failed to open stream: No such file or directory in /data/phpspider/zhask/libs/function.php on line 167

Warning: Invalid argument supplied for foreach() in /data/phpspider/zhask/libs/tag.function.php on line 1116

Notice: Undefined index: in /data/phpspider/zhask/libs/function.php on line 180

Warning: array_chunk() expects parameter 1 to be array, null given in /data/phpspider/zhask/libs/function.php on line 181
Amazon s3 如何在AmazonS3中复制bucket?_Amazon S3 - Fatal编程技术网

Amazon s3 如何在AmazonS3中复制bucket?

Amazon s3 如何在AmazonS3中复制bucket?,amazon-s3,Amazon S3,我真的很讨厌亚马逊克隆水桶的能力。他们不提供bucket重命名,也不提供复制bucket中有成千上万个文件的好方法。有没有一种方法可以用几秒钟到几分钟而不是几小时?您可以通过使用来轻松克隆一个bucket。(首先创建要将其克隆到的bucket): aws s3同步——安静的s3://[bucket old]s3://[bucket new] 提示:使用--dryrun标志来查看您首先在做什么(当它看起来很好时将其中断,否则您必须等待数千个文件完成列出)也许您可以告诉我们您尝试复制文件的方式是什么

我真的很讨厌亚马逊克隆水桶的能力。他们不提供bucket重命名,也不提供复制bucket中有成千上万个文件的好方法。有没有一种方法可以用几秒钟到几分钟而不是几小时?

您可以通过使用来轻松克隆一个bucket。(首先创建要将其克隆到的bucket):

aws s3同步——安静的s3://[bucket old]s3://[bucket new]


提示:使用
--dryrun
标志来查看您首先在做什么(当它看起来很好时将其中断,否则您必须等待数千个文件完成列出)

也许您可以告诉我们您尝试复制文件的方式是什么?(Web界面、命令行、第三方应用程序?在VPC内,等等?)我正在使用我搜索过的aws命令,但我得到的只是更糟糕的解决方案。我对你引用的链接发表了评论。问题是这些解决方案仍然依赖于客户机进行列表,并为每个文件提交一个请求。成千上万的亚马逊和我的机器的请求绝对不是很快。谢谢。但它仍然很慢,因为它需要提交和我拥有的文件数量一样多的请求。我正在寻找一个请求量最少的解决方案,所有的事情都发生在S3本身上。我的答案中的命令允许所有事情都发生在S3本身上,但它确实会为每个文件输出一行。您可以通过添加
--quiet
作为参数(我已经更新了答案)来加快速度。此同步甚至不同步权限。它仍然会对每个文件发出请求。我有很多文件,所以仍然有很多请求,这使得它的速度非常慢。从EC2实例运行它可以缓解这个问题。但最终权限仍然没有同步。这太痛苦了。因为我对所有文件只有单一类型的权限,所以我现在可以使用--acl来设置权限问题。似乎从EC2运行它并带有一些参数是目前最好的选择。谢谢@Maneating考拉,如果没有你的帮助,我会对这些亚马逊混蛋发誓:)