Warning: file_get_contents(/data/phpspider/zhask/data//catemap/2/python/364.json): failed to open stream: No such file or directory in /data/phpspider/zhask/libs/function.php on line 167

Warning: Invalid argument supplied for foreach() in /data/phpspider/zhask/libs/tag.function.php on line 1116

Notice: Undefined index: in /data/phpspider/zhask/libs/function.php on line 180

Warning: array_chunk() expects parameter 1 to be array, null given in /data/phpspider/zhask/libs/function.php on line 181
Python 芹菜工人意外停止处决_Python_Celery_Apscheduler - Fatal编程技术网

Python 芹菜工人意外停止处决

Python 芹菜工人意外停止处决,python,celery,apscheduler,Python,Celery,Apscheduler,我正在开发一个Flask应用程序,并使用APScheduler来调度作业和芹菜,以便将作业作为后台进程运行。当某个特定任务需要执行时,APScheduler会将该任务分配给芹菜,但有时芹菜工人在芹菜应用程序重新启动之前不会执行该任务 def run_job(data) logger.info('Queuing data send') # Call celery task to send post_data to URL send_request.apply_async(d

我正在开发一个Flask应用程序,并使用APScheduler来调度作业和芹菜,以便将作业作为后台进程运行。当某个特定任务需要执行时,APScheduler会将该任务分配给芹菜,但有时芹菜工人在芹菜应用程序重新启动之前不会执行该任务

def run_job(data)
    logger.info('Queuing data send')
    # Call celery task to send post_data to URL
    send_request.apply_async(data)
其中send_request()是一个芹菜任务。所以,我得到了多个作业的“排队数据发送”日志,但除非芹菜应用程序重新启动,否则执行永远不会到达发送请求方法内部

def run_job(data)
    logger.info('Queuing data send')
    # Call celery task to send post_data to URL
    send_request.apply_async(data)
我正在运行芹菜应用程序作为

celery_app.start(argv=['celery', 'worker', '-Ofair', '--without-gossip', '--without-mingle', '-l', 'info', '--autoscale', '12,3', '-Q', 'my_queue', '-n', 'my_queue'])

嗯,我觉得一切都很好。你能为你的问题添加一些日志吗?谢谢@yorodm,没有日志,这就是为什么找不到工人停止工作的原因。也许我需要启用芹菜日志,我会试试。