Warning: file_get_contents(/data/phpspider/zhask/data//catemap/0/amazon-s3/2.json): failed to open stream: No such file or directory in /data/phpspider/zhask/libs/function.php on line 167

Warning: Invalid argument supplied for foreach() in /data/phpspider/zhask/libs/tag.function.php on line 1116

Notice: Undefined index: in /data/phpspider/zhask/libs/function.php on line 180

Warning: array_chunk() expects parameter 1 to be array, null given in /data/phpspider/zhask/libs/function.php on line 181
Boto3上传核心转储Python_Python_Amazon S3_Boto3 - Fatal编程技术网

Boto3上传核心转储Python

Boto3上传核心转储Python,python,amazon-s3,boto3,Python,Amazon S3,Boto3,如何诊断导致Python在核心转储中崩溃的Python Boto3 API 我正在尝试使用包的manage.py publish命令将一些静态网页上传到S3 bucket 它似乎可以正常运行几秒钟,但当它试图发出s3.PutObject命令时,进程崩溃并出现错误: [2020-04-12 11:28:18] botocore.hooks DEBUG Event needs-retry.s3.PutObject: calling handler <botocore.retryhandler.

如何诊断导致Python在核心转储中崩溃的Python Boto3 API

我正在尝试使用包的
manage.py publish
命令将一些静态网页上传到S3 bucket

它似乎可以正常运行几秒钟,但当它试图发出s3.PutObject命令时,进程崩溃并出现错误:

[2020-04-12 11:28:18] botocore.hooks DEBUG Event needs-retry.s3.PutObject: calling handler <botocore.retryhandler.RetryHandler object at 0x7f92cb7ed2e8>
[2020-04-12 11:28:18] botocore.retryhandler DEBUG No retry needed.
[2020-04-12 11:28:18] botocore.hooks DEBUG Event needs-retry.s3.PutObject: calling handler <bound method S3RegionRedirector.redirect_from_error of <botocore.utils.S3RegionRedirector object at 0x7f92cb7ed2b0>>
[2020-04-12 11:28:18] s3transfer.utils DEBUG Releasing acquire 0/None
Segmentation fault (core dumped)
[2020-04-12 11:28:18]botocore.hooks调试事件needs-retry.s3.PutObject:调用处理程序
[2020-04-12 11:28:18]botocore.retryhandler调试无需重试。
[2020-04-12 11:28:18]botocore.hooks调试事件needs-retry.s3.PutObject:调用处理程序
[2020-04-12 11:28:18]s3transfer.utils调试/无
分段故障(堆芯转储)

这几个月来一直运行良好,没有任何问题,所以我不确定是什么变化导致了这一问题。我没有更改任何版本号。我能想到的唯一一件事是,我的一个静态文件的结构可能太复杂,命令无法处理,但我不确定如何识别它。我该如何解决这个问题?

我发现的可能与您的问题略有关联。我使用aws cli使用Fargate将文件从aws EFS复制到S3,它对大文件(~5GB)有奇怪的行为。任务悬而未决

s3transfer.utils DEBUG Releasing acquire 0/None

我添加了<代码>--只显示错误<代码>和<代码>--没有进展<代码>参数,这很有帮助,但我无法解释为什么它是这样工作的:)

我发现的可能与您的问题略有关联。我使用aws cli使用Fargate将文件从aws EFS复制到S3,它对大文件(~5GB)有奇怪的行为。任务悬而未决

s3transfer.utils DEBUG Releasing acquire 0/None

我添加了
--只显示错误
--没有进展
参数,这很有帮助,但我无法解释为什么它会这样工作:)

boto3是纯python,纯python不应该导致SEGFULT。也许是boto3引入的本机扩展?你试过检查核心文件的回溯吗?@jordanm很好。即使是纯Python,如果它利用解释器中的错误,也会导致segfault,但无可否认,这是罕见的。我确实注意到我安装的boto3版本落后了几个版本,所以我将尝试升级到PyPI的最新版本,看看这是否有什么作用。boto3是纯python,纯python不应该导致segfault。也许是boto3引入的本机扩展?你试过检查核心文件的回溯吗?@jordanm很好。即使是纯Python,如果它利用解释器中的错误,也会导致segfault,但无可否认,这是罕见的。我确实注意到我安装的boto3版本落后了几个版本,所以我将尝试升级到PyPI的最新版本,看看这是否有用。如果你不能解释这是一个什么样的答案?我分享了对我有用的东西。也许它会帮助问题作者,或者至少给出一些关于下一步检查什么的想法。如果你不能解释它是如何回答的?我分享了对我有用的东西。也许它会帮助问题作者,或者至少给出一些关于下一步检查什么的想法。