Python 从Heroku传输大文件在30秒超时后失败

Python 从Heroku传输大文件在30秒超时后失败,python,http,heroku,timeout,web.py,Python,Http,Heroku,Timeout,Web.py,我有一个pythonweb工作者,可以根据客户机请求流式处理一个大文件。30秒后,连接被Heroku终止。我正在使用web.py并生成新的输出。根据Heroku文件: Cedar支持HTTP 1.1特性,例如长轮询和流式响应。应用程序有一个30秒的初始窗口,可以用一个字节返回给客户端。但是,此后传输的每个字节(从客户端接收或由应用程序发送)都会重置一个55秒的滚动窗口。如果在55秒的时间内没有发送数据,连接将终止 我每55秒发送超过1个字节,但连接仍然终止 这些是我正在使用的标题 web.hea

我有一个pythonweb工作者,可以根据客户机请求流式处理一个大文件。30秒后,连接被Heroku终止。我正在使用
web.py
并生成新的输出。根据Heroku文件:

Cedar支持HTTP 1.1特性,例如长轮询和流式响应。应用程序有一个30秒的初始窗口,可以用一个字节返回给客户端。但是,此后传输的每个字节(从客户端接收或由应用程序发送)都会重置一个55秒的滚动窗口。如果在55秒的时间内没有发送数据,连接将终止

我每55秒发送超过1个字节,但连接仍然终止

这些是我正在使用的标题

web.header('Content-type' , 'application/zip')
web.header('Content-Disposition', 'attachment; filename="images.zip"')
我甚至尝试添加:

web.header('Transfer-Encoding','chunked')

我做错什么了吗?

看来问题是由于gunicorn设置不正确造成的。在
Procfile
中扩展
gunicron
超时完成了以下任务:

--timeout 300

有什么消息吗?我也遇到了同样的问题。这样做的后果是什么?我的意思是,如果受到攻击或bug,服务器会变得不负责任吗?