PHP curl到self以避免FastCGI超时

PHP curl到self以避免FastCGI超时,php,loops,curl,timeout,fastcgi,Php,Loops,Curl,Timeout,Fastcgi,这就是我的困境。我需要提取数百个API调用值的数据,一次解析一个,并记录匹配的数据。我的问题是,这需要一段时间,而且我正在使用共享主机,我的FastCGI忙超时无法更改(我相信网络主机不会这样做,因为共享主机)。所以我完全不知道该怎么解决这个问题。我不能使用CLI,因为它是一个面向用户的工具,用户可以在其中输入数据列表,而这正是我所要匹配的。因此,一旦收到输入,我需要PHP自行运行,直到完成(可能需要一段时间,比如几个小时) 我什么都试过了,什么都没用。在这一点上,为了尝试欺骗系统,我将文件设置

这就是我的困境。我需要提取数百个API调用值的数据,一次解析一个,并记录匹配的数据。我的问题是,这需要一段时间,而且我正在使用共享主机,我的FastCGI忙超时无法更改(我相信网络主机不会这样做,因为共享主机)。所以我完全不知道该怎么解决这个问题。我不能使用CLI,因为它是一个面向用户的工具,用户可以在其中输入数据列表,而这正是我所要匹配的。因此,一旦收到输入,我需要PHP自行运行,直到完成(可能需要一段时间,比如几个小时)

我什么都试过了,什么都没用。在这一点上,为了尝试欺骗系统,我将文件设置为自引用,而不是循环,但这似乎不起作用。我认为这是我唯一的方法(除非有人有更好的想法),我正在努力找出如何在FastCGI的眼中让每一个调用都自动“重启”。救命

如果您有访问权限,那么您可以始终创建另一个PHP脚本来实际执行,或者创建其他程序或脚本来执行,然后使用
exec
调用该脚本,这样您就可以让它在机器上运行,而不是通过FastCGI。然后,您希望在脚本中使用某种进度跟踪来跟踪完成的距离或时间,然后有一个页面来检查请求的进度:)


注意:对于生产解决方案来说,这确实不是一个好主意,但它比解决递归curl调用更有效:)

有更好的生产解决方案吗?也感谢您的输入:)不要使用共享主机;)这肯定是一个足够好的解决方案,不过,只需清理您的输入,以避免执行恶意代码是的,这是一个客户端lol。作为旁注,我刚刚意识到我所做的是工作。它只是断开了浏览器连接,所以我认为它断了。我现在做的有什么不好吗?就像它的设置如何回发到自己身上一样?你也会遇到同样的问题,因为每个后续的curl调用都需要等待下一个调用完成(递归),所以你的方法不应该改变任何东西。那么脚本在那之后就结束了,不需要等待响应,那么父脚本就不会退出了吗?