Python 3.x 将文件上载到tmp目录lambda

Python 3.x 将文件上载到tmp目录lambda,python-3.x,amazon-web-services,lambda,google-cloud-platform,Python 3.x,Amazon Web Services,Lambda,Google Cloud Platform,我有一个Lambda函数,它在S3上传发生时触发。然后下载到/tmp,然后发送到GCP存储。问题是日志文件的大小可能高达900 MB,因此Lambda函数中的/tmp存储空间不足。这附近有什么地方吗 我试图发送到内存,但我相信内存是只读的。 还有关于安装efs的讨论,但不确定这是否可行 从S3事件中检索bucket name和file_key 这是lambda函数的cloudwatch日志中的错误 [错误]操作错误:[Errno 28]设备上没有剩余空间 回溯(最近一次呼叫最后一次): lamb

我有一个Lambda函数,它在S3上传发生时触发。然后下载到/tmp,然后发送到GCP存储。问题是日志文件的大小可能高达900 MB,因此Lambda函数中的/tmp存储空间不足。这附近有什么地方吗

我试图发送到内存,但我相信内存是只读的。 还有关于安装efs的讨论,但不确定这是否可行

从S3事件中检索bucket name和file_key 这是lambda函数的cloudwatch日志中的错误

[错误]操作错误:[Errno 28]设备上没有剩余空间 回溯(最近一次呼叫最后一次): lambda_处理程序中的第30行文件“/var/task/lambda_function.py” s3.下载文件(s3存储桶名称、文件密钥),/tmp/

storage_client = storage.Client()
bucket = storage_client.get_bucket("YOUR_BUCKET_NAME")
blob = bucket.blob("file/path.csv") #file path on your gcs
blob.upload_from_filename("/tmp/path.csv") #tmp file 
我希望这会对你有所帮助

storage_client = storage.Client()
bucket = storage_client.get_bucket("YOUR_BUCKET_NAME")
blob = bucket.blob("file/path.csv") #file path on your gcs
blob.upload_from_filename("/tmp/path.csv") #tmp file