Warning: file_get_contents(/data/phpspider/zhask/data//catemap/2/python/336.json): failed to open stream: No such file or directory in /data/phpspider/zhask/libs/function.php on line 167

Warning: Invalid argument supplied for foreach() in /data/phpspider/zhask/libs/tag.function.php on line 1116

Notice: Undefined index: in /data/phpspider/zhask/libs/function.php on line 180

Warning: array_chunk() expects parameter 1 to be array, null given in /data/phpspider/zhask/libs/function.php on line 181
将大型python包加载到AWS lambda函数中_Python_Amazon Web Services_Amazon S3_Aws Lambda - Fatal编程技术网

将大型python包加载到AWS lambda函数中

将大型python包加载到AWS lambda函数中,python,amazon-web-services,amazon-s3,aws-lambda,Python,Amazon Web Services,Amazon S3,Aws Lambda,在尝试将函数上载到AWS lambda时,我似乎无法避免此错误(如下所述): “代码”选项卡无法保存。原因:解压缩大小必须小于262144000字节 我已经压缩了函数及其所有依赖项,并将压缩后的文件上载到S3,并在lambda的提示下粘贴了文件的S3URL(从AmazonS3上载文件) 任何线索将不胜感激。谢谢正如kosa提到的,250MB有一个硬限制。这个reddit线程有几个好主意: 大多数解决方案的思路是:1)稍后加载更多代码,从而绕过250个限制;2)将代码拆分为更小的部分,这更像是a

在尝试将函数上载到AWS lambda时,我似乎无法避免此错误(如下所述):

“代码”选项卡无法保存。原因:解压缩大小必须小于262144000字节

我已经压缩了函数及其所有依赖项,并将压缩后的文件上载到S3,并在lambda的提示下粘贴了文件的S3URL(从AmazonS3上载文件)


任何线索将不胜感激。谢谢

正如kosa提到的,250MB有一个硬限制。这个reddit线程有几个好主意:

大多数解决方案的思路是:1)稍后加载更多代码,从而绕过250个限制;2)将代码拆分为更小的部分,这更像是aws lambda ish;3)使用strip命令,如下图所示:


2可能是最好的方法,如果你能把它分开的话。再加上熵的答案,用类似的东西怎么样?如果它执行的缩小足以达到250 MB的限制,那么这可能是一个非常简单的解决方案

此外,如果您使用的是AWS SDK,则不需要将其作为一个组件包含在包中。如果是这样的话,这也可以节省一些空间