Warning: file_get_contents(/data/phpspider/zhask/data//catemap/4/postgresql/9.json): failed to open stream: No such file or directory in /data/phpspider/zhask/libs/function.php on line 167

Warning: Invalid argument supplied for foreach() in /data/phpspider/zhask/libs/tag.function.php on line 1116

Notice: Undefined index: in /data/phpspider/zhask/libs/function.php on line 180

Warning: array_chunk() expects parameter 1 to be array, null given in /data/phpspider/zhask/libs/function.php on line 181
Sql 如何为s3文件夹运行pg_还原?_Sql_Postgresql_Amazon Web Services_Amazon S3_Pg Restore - Fatal编程技术网

Sql 如何为s3文件夹运行pg_还原?

Sql 如何为s3文件夹运行pg_还原?,sql,postgresql,amazon-web-services,amazon-s3,pg-restore,Sql,Postgresql,Amazon Web Services,Amazon S3,Pg Restore,是关于从s3单文件恢复postgres的示例。它将此文件读入stdout,并将此strem重定向到pg\u restore工具。但是如果s3上有几个gz文件呢?有没有办法让pgu还原读取而不下载到任何临时文件夹中 关于循环恢复 首先,目前尚不清楚postgress如何处理这种情况。我有50-100个大小不同的gz文件。是的,它们有一个nems,可以分类。但是,当我只保存一个文件时,postgres会执行正确的恢复吗 此外,循环导致将所有文件加载到某个文件夹中。文件可能很大。因此,最好直接从s3

是关于从s3单文件恢复postgres的示例。它将此文件读入stdout,并将此strem重定向到
pg\u restore
工具。但是如果s3上有几个gz文件呢?有没有办法让
pgu还原
读取而不下载到任何临时文件夹中

关于循环恢复

  • 首先,目前尚不清楚postgress如何处理这种情况。我有50-100个大小不同的
    gz
    文件。是的,它们有一个nems,可以分类。但是,当我只保存一个文件时,postgres会执行正确的恢复吗
  • 此外,循环导致将所有文件加载到某个文件夹中。文件可能很大。因此,最好直接从s3恢复它们

  • 我们不能你就这么做,只是一个循环?你提前知道文件的名称吗?问题已经更新了。我们不能你就这样做,只是在循环中?您提前知道文件名吗?问题已更新。