Warning: file_get_contents(/data/phpspider/zhask/data//catemap/1/php/250.json): failed to open stream: No such file or directory in /data/phpspider/zhask/libs/function.php on line 167

Warning: Invalid argument supplied for foreach() in /data/phpspider/zhask/libs/tag.function.php on line 1116

Notice: Undefined index: in /data/phpspider/zhask/libs/function.php on line 180

Warning: array_chunk() expects parameter 1 to be array, null given in /data/phpspider/zhask/libs/function.php on line 181
NGINX:1GB后下载停止-上游超时(110:连接超时)_Nginx_Php - Fatal编程技术网

NGINX:1GB后下载停止-上游超时(110:连接超时)

NGINX:1GB后下载停止-上游超时(110:连接超时),nginx,php,Nginx,Php,我的网站有一个很大的问题。 请帮我修一下 我有一个网站,用户可以从其他不同的网站下载文件(如上传的.net)。我们像代理人一样行事。用户生成链接并直接下载文件。我们的脚本在服务器上不下载任何内容。有点像高级链接生成器,但不同。而且不违法 如果用户正在下载一个大于1GB的文件,当它达到1GB时,下载将被取消 在日志文件中,我发现重复的错误 “读取响应时上游超时(110:连接超时)” 我试着把设置调高一点,但没用 我尝试了以下几点: 1. nginx.conf: fastcgi_send_ti

我的网站有一个很大的问题。 请帮我修一下

我有一个网站,用户可以从其他不同的网站下载文件(如上传的.net)。我们像代理人一样行事。用户生成链接并直接下载文件。我们的脚本在服务器上不下载任何内容。有点像高级链接生成器,但不同。而且不违法

如果用户正在下载一个大于1GB的文件,当它达到1GB时,下载将被取消

在日志文件中,我发现重复的错误 “读取响应时上游超时(110:连接超时)”

我试着把设置调高一点,但没用

我尝试了以下几点:

1. nginx.conf:
   fastcgi_send_timeout 300s;
   fastcgi_read_timeout 300s;

2. nginx host file:
   fastcgi_read_timeout 300;
   fastcgi_buffers 8 128k;
   fstcgi_buffer_size 256k;

3. PHP.ini:
   max_execution_time = 60 (but my php script will set it automaticly to 0)
   max_input_time = 60
   memory_limit = 128M

4. PHP-FPM >> www.conf
   pm.max_children = 25
   pm.start_servers = 2
   pm.min_spare_servers = 2
   pm.max_spare_servers = 12
   request_terminate_timeout = 300s
但没有任何帮助。我能做些什么来解决这个问题

Server/Nginx Infos:
Memory: 32079MB
CPU: model name: Intel(R) Xeon(R) CPU E3-1230 v3 @ 3.30GHz (8 Cores)
PHP: PHP 5.5.15-1~dotdeb.1 (cli) (built: Jul 24 2014 16:44:04)
NGINX: nginx/1.2.1

nginx.conf:
worker_processes  8;
worker_connections  2048;
但我认为时间设置并不重要。因为每次下载都会在1.604.408 KB上停止。如果以20kb/s的速度下载,下载需要更多的时间,但将在1.604.408kb的时间内取消

谢谢你的帮助。
如果您需要更多信息,请询问我。

我有类似的问题,下载将在1024MB处停止,并出现错误

readv() failed (104: Connection reset by peer) while reading upstream
将此添加到nginx.conf文件有助于:

fastcgi_max_temp_file_size 1024m;

请尝试使用更新版本的Nginx-v1.2.1非常旧。尝试提高Nginx.conf中“fastcgi_connect_timeout”、“fastcgi_read_timeout”的值。我使用的是dotdeb包,因此我必须删除Nginx和php才能安装正常/更新版本。或者我可以在调整sources.list时简单地覆盖包吗?我应该在什么值上尝试“fastcgi\u connect\u timeout”?这个问题已经解决了。对于所有其他具有相同问题的人:我们的问题是,服务器/脚本将所有内容下载到临时文件夹中。默认值为1024mb。我们通过nginx.conf中的“max_temp_file_size 16G”将该值设置为16gb。请将您的解决方案发布为答案并标记为已接受?:)