Php S3对对象下载量的限制
给出以下代码片段,我将循环浏览并下载一系列文件。如果文件列表大于50个对象,则会出现此对话框,好吧,就是这样。亚马逊对我一次可以下载的对象数量有限制吗?如果是这样的话,是有解决办法还是我只是做错了?同样,对于50个以下的文件,一切都可以正常工作 只是为了澄清一下,目的是生成一个zip文件供某人下载。文件列表可能从几个文件到数百个文件不等Php S3对对象下载量的限制,php,amazon-web-services,amazon-s3,limit,Php,Amazon Web Services,Amazon S3,Limit,给出以下代码片段,我将循环浏览并下载一系列文件。如果文件列表大于50个对象,则会出现此对话框,好吧,就是这样。亚马逊对我一次可以下载的对象数量有限制吗?如果是这样的话,是有解决办法还是我只是做错了?同样,对于50个以下的文件,一切都可以正常工作 只是为了澄清一下,目的是生成一个zip文件供某人下载。文件列表可能从几个文件到数百个文件不等 if ($zip->open($path, ZipArchive::CREATE)){ foreach($sheets as $
if ($zip->open($path, ZipArchive::CREATE)){
foreach($sheets as $sheet){
// the saved file name as it exists on the server...
$keyname = $sheet.".pdf";
// the new name of the file, what it was originaly uploaded as
$sql = "SELECT * FROM files WHERE id=$sheet";
if ($result = $mysqli->query($sql)) {
while($row = $result->fetch_assoc()) {
$saveas = $row['number']."-".$row['name'].".pdf";
}
}
// Save object locally (downloads directory) to a file.
$filepath = "/var/www/html/downloads/".$saveas;
$result = $client->getObject(array(
'Bucket' => $bucket,
'Key' => $keyname,
'SaveAs' => $filepath
));
// insert the recently saved file to the zip
$zip->addFile($filepath, $saveas);
}
}
这远远低于亚马逊可能有的任何限制——也许是因为在发布时喝了一小口——这可能是你的脚本超时了。我有一些脚本,一次下载超过1k个对象,没有问题。事实上,您的脚本一次只下载一个。是的,它一次只下载一个。我将检查超时的可能性。这远远低于亚马逊可能有的任何限制-可能是在问题的啜饮-这可能是你的脚本超时。我有一些脚本,一次下载超过1k个对象,没有问题。事实上,您的脚本一次只下载一个。是的,它一次只下载一个。我将检查超时的可能性。这远远低于亚马逊可能有的任何限制-可能是在问题的啜饮-这可能是你的脚本超时。我有一些脚本,一次下载超过1k个对象,没有问题。事实上,您的脚本一次只下载一个。是的,它一次只下载一个。我将检查超时的可能性。