Warning: file_get_contents(/data/phpspider/zhask/data//catemap/1/php/272.json): failed to open stream: No such file or directory in /data/phpspider/zhask/libs/function.php on line 167

Warning: Invalid argument supplied for foreach() in /data/phpspider/zhask/libs/tag.function.php on line 1116

Notice: Undefined index: in /data/phpspider/zhask/libs/function.php on line 180

Warning: array_chunk() expects parameter 1 to be array, null given in /data/phpspider/zhask/libs/function.php on line 181

Warning: file_get_contents(/data/phpspider/zhask/data//catemap/8/mysql/71.json): failed to open stream: No such file or directory in /data/phpspider/zhask/libs/function.php on line 167

Warning: Invalid argument supplied for foreach() in /data/phpspider/zhask/libs/tag.function.php on line 1116

Notice: Undefined index: in /data/phpspider/zhask/libs/function.php on line 180

Warning: array_chunk() expects parameter 1 to be array, null given in /data/phpspider/zhask/libs/function.php on line 181
php-运行长脚本后的空白页_Php_Mysql_Apache_Timeout - Fatal编程技术网

php-运行长脚本后的空白页

php-运行长脚本后的空白页,php,mysql,apache,timeout,Php,Mysql,Apache,Timeout,我已经在脚本中使用了以下代码行: set_time_limit(3000); ini_set('max_execution_time', 10000); 此外,更改了Apache conf文件上的以下设置: Keep Alive: On Max Keep-Alive Requests: Unlimited Timeout: 3000 但每次我运行脚本时,它都会在加载30秒后显示一个空白页面(错误报告也会打开,但不会在页面上显示任何内容)。该脚本用于从mysql加载一些数据并进行打印。奇怪的是

我已经在脚本中使用了以下代码行:

set_time_limit(3000);
ini_set('max_execution_time', 10000);
此外,更改了Apache conf文件上的以下设置:

Keep Alive: On
Max Keep-Alive Requests: Unlimited
Timeout: 3000
但每次我运行脚本时,它都会在加载30秒后显示一个空白页面(错误报告也会打开,但不会在页面上显示任何内容)。该脚本用于从mysql加载一些数据并进行打印。奇怪的是,如果我加载例如50条记录,它很好并显示结果。但是如果加载50条以上的记录,就会出现空白页。这些记录还可以,因为我甚至更改了所选的记录,但每次都会有50多条记录出现问题(我想这是因为有一段时间超时了)


顺便说一句,我正在使用iPage VPS服务器。

您的脚本似乎没有在3000秒内执行。因此,您可以增加超时时间并运行改进的脚本来完成此过程。

您应该查看apache错误日志以增加内存限制。我以前看过错误日志,现在又看到了。它没有说明这个过程。谢谢@VishalKamal,它成功了!问题也可能出现在您的web浏览器中。如果它在30秒内没有获取页面,它可能会显示空白页面。也许试着把输出放到服务器上,看看它是否工作得更好。脚本在30秒后超时(意味着在30秒后,出现空白页面)。它不需要3000秒就可以加载!正如我所说,它有50个记录,但如果只增加1,则出现空白页。