Warning: file_get_contents(/data/phpspider/zhask/data//catemap/1/amazon-web-services/14.json): failed to open stream: No such file or directory in /data/phpspider/zhask/libs/function.php on line 167

Warning: Invalid argument supplied for foreach() in /data/phpspider/zhask/libs/tag.function.php on line 1116

Notice: Undefined index: in /data/phpspider/zhask/libs/function.php on line 180

Warning: array_chunk() expects parameter 1 to be array, null given in /data/phpspider/zhask/libs/function.php on line 181
Php S3对对象下载量的限制_Php_Amazon Web Services_Amazon S3_Limit - Fatal编程技术网

Php S3对对象下载量的限制

Php S3对对象下载量的限制,php,amazon-web-services,amazon-s3,limit,Php,Amazon Web Services,Amazon S3,Limit,给出以下代码片段,我将循环浏览并下载一系列文件。如果文件列表大于50个对象,则会出现此对话框,好吧,就是这样。亚马逊对我一次可以下载的对象数量有限制吗?如果是这样的话,是有解决办法还是我只是做错了?同样,对于50个以下的文件,一切都可以正常工作 只是为了澄清一下,目的是生成一个zip文件供某人下载。文件列表可能从几个文件到数百个文件不等 if ($zip->open($path, ZipArchive::CREATE)){ foreach($sheets as $

给出以下代码片段,我将循环浏览并下载一系列文件。如果文件列表大于50个对象,则会出现此对话框,好吧,就是这样。亚马逊对我一次可以下载的对象数量有限制吗?如果是这样的话,是有解决办法还是我只是做错了?同样,对于50个以下的文件,一切都可以正常工作

只是为了澄清一下,目的是生成一个zip文件供某人下载。文件列表可能从几个文件到数百个文件不等

 if ($zip->open($path, ZipArchive::CREATE)){
            foreach($sheets as $sheet){
                // the saved file name as it exists on the server...
                $keyname = $sheet.".pdf";

                // the new name of the file, what it was originaly uploaded as
                $sql = "SELECT * FROM files WHERE id=$sheet";
                if ($result = $mysqli->query($sql)) {
                    while($row = $result->fetch_assoc()) {
                        $saveas = $row['number']."-".$row['name'].".pdf";
                    }
                }

                // Save object locally (downloads directory) to a file.
                $filepath = "/var/www/html/downloads/".$saveas;
                $result = $client->getObject(array(
                    'Bucket' => $bucket,
                    'Key'    => $keyname,
                    'SaveAs' => $filepath
                ));
                // insert the recently saved file to the zip
                $zip->addFile($filepath, $saveas);
            }
        }

这远远低于亚马逊可能有的任何限制——也许是因为在发布时喝了一小口——这可能是你的脚本超时了。我有一些脚本,一次下载超过1k个对象,没有问题。事实上,您的脚本一次只下载一个。是的,它一次只下载一个。我将检查超时的可能性。这远远低于亚马逊可能有的任何限制-可能是在问题的啜饮-这可能是你的脚本超时。我有一些脚本,一次下载超过1k个对象,没有问题。事实上,您的脚本一次只下载一个。是的,它一次只下载一个。我将检查超时的可能性。这远远低于亚马逊可能有的任何限制-可能是在问题的啜饮-这可能是你的脚本超时。我有一些脚本,一次下载超过1k个对象,没有问题。事实上,您的脚本一次只下载一个。是的,它一次只下载一个。我将检查超时的可能性。