PHPF-n文件\u get\u内容停止执行巨大的html页面

PHPF-n文件\u get\u内容停止执行巨大的html页面,php,html,buffer,exit,Php,Html,Buffer,Exit,我正在使用file_get_contents函数从巨大的页面(32000行)获取并解析html。 它适用于小页面/普通页面,但对于这个页面,它就停止了 它没有给出任何错误。它不会读取我的PHP脚本中的下一行,只是停止了..我试图增加超时时间或使用cURL,但仍然不起作用 它在我本地的XAMPP上工作,但在我上传到主机时不工作。 有人知道我的PHP主机的设置有问题吗?我认为这是缓冲区的问题 可能是由于 是关于该指令的一些附加信息 要确定此问题的原因,应在脚本前添加以下代码(如果希望在浏览器中显示错

我正在使用file_get_contents函数从巨大的页面(32000行)获取并解析html。 它适用于小页面/普通页面,但对于这个页面,它就停止了

它没有给出任何错误。它不会读取我的PHP脚本中的下一行,只是停止了..我试图增加超时时间或使用cURL,但仍然不起作用

它在我本地的XAMPP上工作,但在我上传到主机时不工作。
有人知道我的PHP主机的设置有问题吗?我认为这是缓冲区的问题

可能是由于

是关于该指令的一些附加信息

要确定此问题的原因,应在脚本前添加以下代码(如果希望在浏览器中显示错误,请省略日志语句)


有可能是因为

是关于该指令的一些附加信息

要确定此问题的原因,应在脚本前添加以下代码(如果希望在浏览器中显示错误,请省略日志语句)


你有控制台吗?然后尝试使用wget获取页面。。检查它是否可读。在我看来,这就像一个常见的apache超时。您必须配置vhost设置,但我想这是不可能的。通常这是唯一的选择。检查你的apache错误日志。你有控制台吗?然后尝试使用wget获取页面。。检查它是否可读。在我看来,这就像一个常见的apache超时。您必须配置vhost设置,但我想这是不可能的。通常这是唯一的选择。检查apache错误日志。
ini_set('display_errors', 1); 
ini_set('log_errors', 1); 
ini_set('error_log', dirname(__FILE__) . '/error_log.txt'); 
error_reporting(E_ALL);