Amazon web services 如何恢复数百万个文件';S3 bucket中的某个目录中有什么旧版本?

Amazon web services 如何恢复数百万个文件';S3 bucket中的某个目录中有什么旧版本?,amazon-web-services,amazon-s3,restore,backup-strategies,backups,Amazon Web Services,Amazon S3,Restore,Backup Strategies,Backups,我们正在同一个S3存储桶中备份工具的主目录和配置,并按目录名分隔。我们在S3 bucket上启用了版本控制。由于担心在S3备份中丢失重要文件,如果我们的分布式文件系统和计划的S3同步作业运行出现问题,我们在S3同步期间没有启用--delete选项 现在,我想知道- 如果本地备份出现问题,并且我们意识到(比如说4天后),我们需要在S3 bucket的一个目录中恢复4天以前的文件,我该如何实现 此外,如果你能回答- 由于我们没有启用“删除”选项,“恢复”还将恢复所有已删除或未在本地显示的文件(不再需

我们正在同一个S3存储桶中备份工具的主目录和配置,并按目录名分隔。我们在S3 bucket上启用了版本控制。由于担心在S3备份中丢失重要文件,如果我们的分布式文件系统和计划的S3同步作业运行出现问题,我们在S3同步期间没有启用
--delete
选项

现在,我想知道- 如果本地备份出现问题,并且我们意识到(比如说4天后),我们需要在S3 bucket的
一个目录中恢复4天以前的文件,我该如何实现

此外,如果你能回答-
由于我们没有启用“删除”
选项,“恢复”还将恢复所有已删除或未在本地显示的文件(不再需要),在恢复过程中如何避免这种情况?

对于业务关键型备份,我建议使用可提供时间点恢复的“真实”备份工具


有许多备份工具可以在Amazon S3和Amazon Glacier中存储数据,例如。

我建议您尽快在备份策略中添加更复杂的内容。使用awscli同步到S3不会像cloudberry lab、Replicati或duplicity那样好。感谢您的宝贵建议。在我们改进现有备份策略的同时,我们也会尝试同时执行这些备份。我们有nomad,在容器中运行备份过程,由应用程序备份分隔。这是一个非常动态的环境,可以在不同的nomad客户端上运行这些不同的备份容器。我们正在讨论的数据大小至少为20TB。Cloudberry对其备份的数据大小和安装的linux机器数量收费(如果我错了,请纠正我)。总的来说,仅仅对S3中的特定子目录采用“时间点”恢复功能就变得非常昂贵。