Python 重复备份:备份到Amazon S3时,对等方重置错误104连接

Python 重复备份:备份到Amazon S3时,对等方重置错误104连接,python,amazon-web-services,amazon-s3,Python,Amazon Web Services,Amazon S3,我使用Duplicity运行从本地服务器到AmazonS3的备份。一年多以来,这种方法一直运作良好。三天前,我开始出现以下错误: Traceback (most recent call last): File "/usr/lib64/python2.7/site-packages/duplicity/backends/_boto_multi.py", line 204, in _upload num_cb=max(2, 8 * bytes / (1024 * 1024)) File "/usr/

我使用Duplicity运行从本地服务器到AmazonS3的备份。一年多以来,这种方法一直运作良好。三天前,我开始出现以下错误:

Traceback (most recent call last):
File "/usr/lib64/python2.7/site-packages/duplicity/backends/_boto_multi.py", line 204, in _upload
num_cb=max(2, 8 * bytes / (1024 * 1024))
File "/usr/lib/python2.7/site-packages/boto/s3/multipart.py", line 260, in upload_part_from_file
query_args=query_args, size=size)
File "/usr/lib/python2.7/site-packages/boto/s3/key.py", line 1291, in set_contents_from_file
chunked_transfer=chunked_transfer, size=size)
File "/usr/lib/python2.7/site-packages/boto/s3/key.py", line 748, in send_file
chunked_transfer=chunked_transfer, size=size)
File "/usr/lib/python2.7/site-packages/boto/s3/key.py", line 949, in _send_file_internal
query_args=query_args
File "/usr/lib/python2.7/site-packages/boto/s3/connection.py", line 664, in make_request
retry_handler=retry_handler
File "/usr/lib/python2.7/site-packages/boto/connection.py", line 1068, in make_request
retry_handler=retry_handler)
File "/usr/lib/python2.7/site-packages/boto/connection.py", line 939, in _mexe
request.body, request.headers)
File "/usr/lib/python2.7/site-packages/boto/s3/key.py", line 842, in sender
http_conn.send(chunk)
File "/usr/lib64/python2.7/httplib.py", line 805, in send
self.sock.sendall(data)
File "/usr/lib64/python2.7/ssl.py", line 229, in sendall
v = self.send(data[count:])
File "/usr/lib64/python2.7/ssl.py", line 198, in send
v = self._sslobj.write(data)
error: [Errno 104] Connection reset by peer
即使我尝试了以下方法,这些问题仍然存在:

--在我的脚本文件中添加了“s3使用多处理”

--在/etc/sysctl.conf中添加了以下两行:

net.ipv4.tcp_wmem = 4096 16384 512000
net.ipv4.tcp_rmem = 4096 87380 512000
--运行sysctl-p以开始使用上述命令

三天前,我开始在其他几台服务器上运行Duplicity,备份到同一帐户上的另一个存储桶。这就是此服务器开始报告连接重置错误的时间。其他服务器工作正常,所有服务器都使用相同版本的Duplicity和Python。它们位于不同子网上的不同位置,但这不应该有什么区别


问题服务器上的原始块大小为25MB。其他的是250MB。我还能找什么?我猜Amazon正在重置连接,但为什么要选择此服务器?

服务器在AWS内部还是外部?三天前(我相信是2月8日,星期一),由于外部互联网提供商的路由配置错误,us-east-1的连接严重中断,我从弗吉尼亚州的另一个collo到AWS的往返时间从2ms跳到180ms,因为弗吉尼亚到弗吉尼亚的流量开始通过华盛顿州的西雅图进行路由。这个问题在今天晚些时候解决了。我试图备份的服务器在AWS之外,但它正在备份到us-east-1。你认为这和你提到的破坏有关吗?我的其他服务器上没有这个问题,但是,它们位于不同的位置(也在AWS之外)。你解决了这个问题吗?@Yajo:原来是上述服务中断。自从问题解决后,它一直工作正常。服务器是在AWS内部还是外部?三天前(我相信是2月8日,星期一),由于外部互联网提供商的路由配置错误,us-east-1的连接严重中断,我从弗吉尼亚州的另一个collo到AWS的往返时间从2ms跳到180ms,因为弗吉尼亚到弗吉尼亚的流量开始通过华盛顿州的西雅图进行路由。这个问题在今天晚些时候解决了。我试图备份的服务器在AWS之外,但它正在备份到us-east-1。你认为这和你提到的破坏有关吗?我的其他服务器上没有这个问题,但是,它们位于不同的位置(也在AWS之外)。你解决了这个问题吗?@Yajo:原来是上述服务中断。自从那件事解决后,它一直运转良好。