Warning: file_get_contents(/data/phpspider/zhask/data//catemap/0/amazon-s3/2.json): failed to open stream: No such file or directory in /data/phpspider/zhask/libs/function.php on line 167

Warning: Invalid argument supplied for foreach() in /data/phpspider/zhask/libs/tag.function.php on line 1116

Notice: Undefined index: in /data/phpspider/zhask/libs/function.php on line 180

Warning: array_chunk() expects parameter 1 to be array, null given in /data/phpspider/zhask/libs/function.php on line 181
Amazon web services 用于分发数据的跨区域复制_Amazon Web Services_Amazon S3 - Fatal编程技术网

Amazon web services 用于分发数据的跨区域复制

Amazon web services 用于分发数据的跨区域复制,amazon-web-services,amazon-s3,Amazon Web Services,Amazon S3,我们是否可以使用跨区域复制将数据分发到AWS帐户的1000?数据将被复制到S3存储桶中,并基于推送模型。因为复制在事件上工作 这种方法可能有局限性吗?我知道AWS文档没有指定thos方法。AWS S3复制不支持这种方法。对于一个源S3 bucket,它只能将对象复制到一个目标。[] 我认为这不是个好主意。原因如下。即使您可以将对象分发到的AWS帐户数量没有限制,您也很可能会达到其他限制。例如,源S3存储桶只能支持每秒每个前缀3500个PUT/COPY/POST/DELETE或5500个GET/H

我们是否可以使用跨区域复制将数据分发到AWS帐户的1000?数据将被复制到S3存储桶中,并基于推送模型。因为复制在事件上工作


这种方法可能有局限性吗?我知道AWS文档没有指定thos方法。

AWS S3复制不支持这种方法。对于一个源S3 bucket,它只能将对象复制到一个目标。[]


我认为这不是个好主意。原因如下。即使您可以将对象分发到的AWS帐户数量没有限制,您也很可能会达到其他限制。例如,源S3存储桶只能支持每秒每个前缀3500个PUT/COPY/POST/DELETE或5500个GET/HEAD请求,这不足以近实时地将对象分发到1000个AWS帐户。为了进行跨帐户复制,您可能也会达到S3资源策略的大小限制。

您能告诉我们有关您的用例的更多信息吗?例如,为什么要将数据复制到数千个AWS帐户?它们都是你的账户,还是由不同的人拥有?为什么这些帐户不能简单地访问一个包含信息的中央存储桶?您希望复制多少数据(数量,GB)以及数据更新的频率?你能告诉我们的情况越多,我们就越有可能提供有用的答案。请随意编辑您的问题并添加详细信息,而不是通过评论进行回答。