Warning: file_get_contents(/data/phpspider/zhask/data//catemap/0/amazon-s3/2.json): failed to open stream: No such file or directory in /data/phpspider/zhask/libs/function.php on line 167

Warning: Invalid argument supplied for foreach() in /data/phpspider/zhask/libs/tag.function.php on line 1116

Notice: Undefined index: in /data/phpspider/zhask/libs/function.php on line 180

Warning: array_chunk() expects parameter 1 to be array, null given in /data/phpspider/zhask/libs/function.php on line 181
Amazon s3 S3冰川35每PB限值的随机恢复_Amazon S3_Amazon Glacier - Fatal编程技术网

Amazon s3 S3冰川35每PB限值的随机恢复

Amazon s3 S3冰川35每PB限值的随机恢复,amazon-s3,amazon-glacier,Amazon S3,Amazon Glacier,: 但是,如果需要恢复大量数据,请记住 S3 Glacier和S3 Glacier Deep Archive存储类是 设计用于35个随机恢复请求/每个存储的每个字节(PiB) 白天 在搜索API文档和其他文档时,我找不到第二个关于此限制的参考。此外,我的实验表明,我可以将300多个小对象归档并恢复到深度归档,而不会达到此限制 : 如果需要在中的大量对象上运行此解决方案 冰川或深层档案,请记住这些存储 类设计为每字节35个随机还原请求(PiB) 每天储存。您可以通过排序来提高恢复吞吐量 按对象创建

:

但是,如果需要恢复大量数据,请记住 S3 Glacier和S3 Glacier Deep Archive存储类是 设计用于35个随机恢复请求/每个存储的每个字节(PiB) 白天

在搜索API文档和其他文档时,我找不到第二个关于此限制的参考。此外,我的实验表明,我可以将300多个小对象归档并恢复到深度归档,而不会达到此限制

:

如果需要在中的大量对象上运行此解决方案 冰川或深层档案,请记住这些存储 类设计为每字节35个随机还原请求(PiB) 每天储存。您可以通过排序来提高恢复吞吐量 按对象创建日期恢复以减少随机性。你可以 也可以将校验和计算分散在数天或数周内,以 保持低于随机还原权限并保持还原 满足其他访问需求的吞吐量

这只会使“随机性”的定义更加混乱

此外,我发现
InitiateJob
API没有配备
429资源限制


那么,“随机恢复请求”到底是什么呢?这个限制意味着什么?

您是打算直接使用Glacier(例如通过
InitiateJob
),还是打算通过Amazon S3使用Glacier(这是获得深度归档定价的唯一途径)?现在,通过S3要比直接去冰川容易得多。是的,但我们仍然需要弄清楚这个神奇的数字35意味着什么@约翰罗滕斯坦尼特只是说“专为……而设计”。我理解它的意思是“如果你想做更多的事情,那么冰川存储可能不是适合你需要的存储类别”。它是为不经常访问归档数据而设计的,这是他们对不经常的定义。虽然这里的确切数字在我看来很奇怪,但在第二个文档中,它还提到了“随机恢复权限”,我清楚地将其标记为配额,而不是建议@您是否打算直接使用Glacier(例如通过
InitiateJob
),还是打算通过Amazon S3使用Glacier(这是获得深度归档定价的唯一途径)?现在,通过S3要比直接去冰川容易得多。是的,但我们仍然需要弄清楚这个神奇的数字35意味着什么@约翰罗滕斯坦尼特只是说“专为……而设计”。我理解它的意思是“如果你想做更多的事情,那么冰川存储可能不是适合你需要的存储类别”。它是为不经常访问归档数据而设计的,这是他们对不经常的定义。虽然这里的确切数字在我看来很奇怪,但在第二个文档中,它还提到了“随机恢复权限”,我清楚地将其标记为配额,而不是建议@约翰罗滕斯坦