Warning: file_get_contents(/data/phpspider/zhask/data//catemap/1/amazon-web-services/14.json): failed to open stream: No such file or directory in /data/phpspider/zhask/libs/function.php on line 167

Warning: Invalid argument supplied for foreach() in /data/phpspider/zhask/libs/tag.function.php on line 1116

Notice: Undefined index: in /data/phpspider/zhask/libs/function.php on line 180

Warning: array_chunk() expects parameter 1 to be array, null given in /data/phpspider/zhask/libs/function.php on line 181
将大容量(250Gb)RDS PostgreSQL数据库转储到我的本地计算机中_Postgresql_Amazon Web Services_Amazon Rds_Dump_Rds - Fatal编程技术网

将大容量(250Gb)RDS PostgreSQL数据库转储到我的本地计算机中

将大容量(250Gb)RDS PostgreSQL数据库转储到我的本地计算机中,postgresql,amazon-web-services,amazon-rds,dump,rds,Postgresql,Amazon Web Services,Amazon Rds,Dump,Rds,我的问题是在我的本地机器上获得大的(250Gb)postgres转储 它在AWS RDS上。我试着将它转储到本地机器上,但时间太长,有点超过3天。 试图找到一种方法将其转储到S3中并从那里安全下载。也许你可以提出更有效的方法。我将感谢任何帮助。 谢谢 据我所知,aws没有提供将db备份到s3的方法 你可以看看这个问题和答案 这里有一个答案 如前所述,如果数据太大,我建议复制S3上的RDS快照。 据我所知,aws没有提供将db备份到s3的方法 你可以看看这个问题和答案 这里有一个答案 如前所述

我的问题是在我的本地机器上获得大的(250Gb)postgres转储

它在AWS RDS上。我试着将它转储到本地机器上,但时间太长,有点超过3天。 试图找到一种方法将其转储到S3中并从那里安全下载。也许你可以提出更有效的方法。我将感谢任何帮助。
谢谢

据我所知,aws没有提供将db备份到s3的方法

你可以看看这个问题和答案

这里有一个答案

如前所述,如果数据太大,我建议复制S3上的RDS快照。


据我所知,aws没有提供将db备份到s3的方法

你可以看看这个问题和答案

这里有一个答案

如前所述,如果数据太大,我建议复制S3上的RDS快照。


本主题将在StackOverflow线程中介绍

另一个解决方案是启动EC2实例,并将数据库转储到一个本地EBS卷,该卷足够大,可以执行以下步骤。然后选择以下选项之一:

  • 将DB转储压缩到多个文件中,并复制到S3进行下载。考虑到数据库转储的大小,我将使用智能S3下载管理器
  • 使用Snowball导出S3数据。如果您的互联网连接不够快/可靠,那么Snowball将为您获取数据

  • 本StackOverflow线程将介绍此主题

    另一个解决方案是启动EC2实例,并将数据库转储到一个本地EBS卷,该卷足够大,可以执行以下步骤。然后选择以下选项之一:

  • 将DB转储压缩到多个文件中,并复制到S3进行下载。考虑到数据库转储的大小,我将使用智能S3下载管理器
  • 使用Snowball导出S3数据。如果您的互联网连接不够快/可靠,那么Snowball将为您获取数据

  • RDS快照仅用于还原回RDS。RDS快照仅用于还原回RDS。