Warning: file_get_contents(/data/phpspider/zhask/data//catemap/0/amazon-s3/2.json): failed to open stream: No such file or directory in /data/phpspider/zhask/libs/function.php on line 167

Warning: Invalid argument supplied for foreach() in /data/phpspider/zhask/libs/tag.function.php on line 1116

Notice: Undefined index: in /data/phpspider/zhask/libs/function.php on line 180

Warning: array_chunk() expects parameter 1 to be array, null given in /data/phpspider/zhask/libs/function.php on line 181
Amazon s3 偶发Lambda超时_Amazon S3_Aws Lambda_Boto3 - Fatal编程技术网

Amazon s3 偶发Lambda超时

Amazon s3 偶发Lambda超时,amazon-s3,aws-lambda,boto3,Amazon S3,Aws Lambda,Boto3,我们有一个lambda,它有一个S3ObjectCreated触发器。当文件上载到我们帐户中的某个S3存储桶和目录时,lambda使用boto3(Python AWS SDK)下载文件,将内容分块,并使用boto3的upload\u file功能通过并行处理将分块放入不同存储桶中的许多较小S3文件中(概述了Python Lambda函数中的并行处理策略) 平均处理时间约为2分30秒。但是,S3响应时间远远高于预期的总体时间,并且不可避免地会有一个或两个lambda由于超时错误而失败。失败率非常低

我们有一个lambda,它有一个S3
ObjectCreated
触发器。当文件上载到我们帐户中的某个S3存储桶和目录时,lambda使用
boto3
(Python AWS SDK)下载文件,将内容分块,并使用
boto3
upload\u file
功能通过并行处理将分块放入不同存储桶中的许多较小S3文件中(概述了Python Lambda函数中的并行处理策略)

平均处理时间约为2分30秒。但是,S3响应时间远远高于预期的总体时间,并且不可避免地会有一个或两个lambda由于超时错误而失败。失败率非常低,超时设置为5分钟,我们无法理解为什么在大多数lambdaa只需要2:30

我们在每个lambda上使用尽可能高的内存,并将lambda的并发性设置为30,以努力限制执行,使其不超过S3 PUT对象限制

我们不认为这是一个代码性能问题,因为大多数执行都在超时限制内,我们倾向于认为这与AWS有关。我们无法确定如何增加对S3的可靠和及时的大容量PUT请求

S3或Lambda是否有其他配置设置可能会有所帮助?或者,是否有更好的方法使用
boto3
来减少总体处理时间并消除偶发故障