Warning: file_get_contents(/data/phpspider/zhask/data//catemap/1/php/297.json): failed to open stream: No such file or directory in /data/phpspider/zhask/libs/function.php on line 167

Warning: Invalid argument supplied for foreach() in /data/phpspider/zhask/libs/tag.function.php on line 1116

Notice: Undefined index: in /data/phpspider/zhask/libs/function.php on line 180

Warning: array_chunk() expects parameter 1 to be array, null given in /data/phpspider/zhask/libs/function.php on line 181

Warning: file_get_contents(/data/phpspider/zhask/data//catemap/6/google-chrome/4.json): failed to open stream: No such file or directory in /data/phpspider/zhask/libs/function.php on line 167

Warning: Invalid argument supplied for foreach() in /data/phpspider/zhask/libs/tag.function.php on line 1116

Notice: Undefined index: in /data/phpspider/zhask/libs/function.php on line 180

Warning: array_chunk() expects parameter 1 to be array, null given in /data/phpspider/zhask/libs/function.php on line 181
PHP超时和太多重定向_Php_Google Chrome_Redirect - Fatal编程技术网

PHP超时和太多重定向

PHP超时和太多重定向,php,google-chrome,redirect,Php,Google Chrome,Redirect,情况是这样的 我在PHP上有一个导入操作(基本上,你可以把它看作是一个大循环)。但是,由于存在大量数据(需要导入数小时的数据);我不能在一个请求中执行此操作,否则我将在10分钟后执行php超时错误 为了避免超时问题,我决定将导入分为许多部分…基本上…我再次调用相同的url,但每5分钟将参数偏移量增加1000 这也是工作…但在一些重定向…我采取了太多的重定向错误 这个问题被标记为chrome,但如果你有其他浏览器的解决方案,我会接受 我的问题是:我是否有办法在chrome上增加允许的重定向数量?

情况是这样的

我在PHP上有一个导入操作(基本上,你可以把它看作是一个大循环)。但是,由于存在大量数据(需要导入数小时的数据);我不能在一个请求中执行此操作,否则我将在10分钟后执行php超时错误

为了避免超时问题,我决定将导入分为许多部分…基本上…我再次调用相同的url,但每5分钟将参数偏移量增加1000

这也是工作…但在一些重定向…我采取了太多的重定向错误

这个问题被标记为chrome,但如果你有其他浏览器的解决方案,我会接受

我的问题是:我是否有办法在chrome上增加允许的重定向数量?


或者修复程序可能是临时删除php中的超时?我正努力想知道最好的解决方案是什么。如何做到这一点?

首先,我不建议进入这些重定向。 最好是设置:

max_execution_time = 0
您不必为所有PHP更改此设置,您可以在导入脚本中进行设置

您是否有可能更改导入的源文件

最好将此文件拆分为较小的文件,而不是使用任何消息代理(如RabbitMQ)逐个将文件排队以导入脚本

若您无法更改源文件,因为它来自外部源,那个么您可以在脚本中自己将其分块。不要尝试将这些块排队,并使用CRON作业或类似的方法逐个导入

导入过程中发生了什么?
也许你在

过程中试图做的太多了,我认为拆分仍然是一件好事,但可能会进入更大的请求中。如果我真的能像你说的那样设置最大执行时间,那么我就不必尝试将每个请求的时间限制在10分钟以下,没有重定向的问题就变得无关紧要了。那么,我将深入探讨这一点:)