Rabbitmq 芹菜节点失败,pidbox上已在重新启动时使用

Rabbitmq 芹菜节点失败,pidbox上已在重新启动时使用,rabbitmq,celeryd,Rabbitmq,Celeryd,我有芹菜和兔子一起吃。 今天芹菜节点失败了-它不执行任务,也不响应服务芹菜停止命令。重复几次后,节点停止,但在开始时,我收到以下消息: [WARNING/MainProcess] celery@nodename ready. [WARNING/MainProcess] /home/ubuntu/virtualenv/project_1/local/lib/python2.7/site-packages/kombu/pidbox.py:73: UserWarning: A node named u

我有芹菜和兔子一起吃。 今天芹菜节点失败了-它不执行任务,也不响应
服务芹菜停止
命令。重复几次后,节点停止,但在开始时,我收到以下消息:

[WARNING/MainProcess] celery@nodename ready.
[WARNING/MainProcess] /home/ubuntu/virtualenv/project_1/local/lib/python2.7/site-packages/kombu/pidbox.py:73: UserWarning: A node named u'nodename' is already using this process mailbox!

Maybe you forgot to shutdown the other node or did not do so properly?
Or if you meant to start multiple nodes on the same host please make sure
you give each node a unique node name!

  warnings.warn(W_PIDBOX_IN_USE % {'hostname': self.hostname})

有人能建议如何解锁process mailbox吗?

我认为,较大的日志文件或没有足够的可用空间是一个原因。 删除后一切正常

从这里您可能需要唯一地命名每个节点。例如:

$ celery -A proj worker --loglevel=INFO --concurrency=10 -n worker1.%h

在使用%%h

的主管越狱中,我可以确认Jamal的回答。RabbitMQ似乎需要与RAM一样多的可用磁盘空间。盒子上的磁盘空间非常少--当我们清理了大量空间后,此消息停止出现。我也遇到了同样的问题,删除了所有日志并检查了磁盘空间。看起来一切都很好,但我一直得到同样的错误…这个答案是不正确的。有关正确的解释,请参见@f01答案。我也遇到了同样的问题,并使用该答案中链接中给出的解释解决了。@Jamal,您可能混淆了不同的问题,因为您的测试不是孤立的。当您启动另一个进程时,您可能已经有一个正在运行的进程了,但出现了错误。你停止了原来的一个,你也删除了新的“空间”,它得到了修复,使你认为这是由于自由空间。这实际上对我也起了作用。我认为他应该指定您应该在rabbitmq服务器中释放空间(我使用的是amqp)注意,如果您不使用
--concurrency
,而是依赖另一个服务,如
supervisor
来处理并发,这仍然会导致节点名称冲突。