Warning: file_get_contents(/data/phpspider/zhask/data//catemap/1/php/236.json): failed to open stream: No such file or directory in /data/phpspider/zhask/libs/function.php on line 167

Warning: Invalid argument supplied for foreach() in /data/phpspider/zhask/libs/tag.function.php on line 1116

Notice: Undefined index: in /data/phpspider/zhask/libs/function.php on line 180

Warning: array_chunk() expects parameter 1 to be array, null given in /data/phpspider/zhask/libs/function.php on line 181
Php 共享主机上的消息队列和/或守护进程_Php_Cron_Message Queue_Daemon - Fatal编程技术网

Php 共享主机上的消息队列和/或守护进程

Php 共享主机上的消息队列和/或守护进程,php,cron,message-queue,daemon,Php,Cron,Message Queue,Daemon,大多数情况下,不可能在共享主机上运行MQs或守护进程之类的东西 考虑到这种情况: 数据库中充满了工作,我希望它们一个接一个地被处理 另一个 有哪些选择 是不是只有cron和60秒的限制?或者你尝试在60秒内完成同样多的cron攻击。cron的60秒限制是多少?而且60秒应该足够触发一个php脚本。脚本中的操作取决于您,有很多方法可以绕过时间限制。Cronjobs只能每分钟被解雇一次(或者我错了吗?),我希望的是每4秒(或者工作需要多长时间)就被解雇一次,然后继续。cronjob只需充当触发器,而

大多数情况下,不可能在共享主机上运行MQs或守护进程之类的东西

考虑到这种情况:

数据库中充满了工作,我希望它们一个接一个地被处理 另一个

有哪些选择


是不是只有cron和60秒的限制?或者你尝试在60秒内完成同样多的cron攻击。

cron的60秒限制是多少?而且60秒应该足够触发一个php脚本。脚本中的操作取决于您,有很多方法可以绕过时间限制。Cronjobs只能每分钟被解雇一次(或者我错了吗?),我希望的是每4秒(或者工作需要多长时间)就被解雇一次,然后继续。cronjob只需充当触发器,而不是更多。通常,它用于触发一些脚本,以确定挂起的作业并对其进行处理。可以实现这样的脚本,以便它对生成的新作业作出反应。因此,在处理方面没有真正的限制。决不能使用cron触发器直接执行挂起的作业。这不允许针对队列污染等采取任何安全预防措施。共享主机通常是结构化的,因此您无法通过cron或web服务器运行任何长时间运行或永久性任务。这在很大程度上是让共享主机工作的必要条件。也就是说,共享主机对于这类事情来说几乎是一个极其恶劣的环境,可能根本就没有什么好的解决方案。最不坏的解决方案取决于您的主机到底允许什么和不允许什么。通常,如果您的应用程序具有足够的复杂性来保证MQs,那么它可能还保证有自己的专用服务器。