Python 计划程序未拾取打包的DAG(Zip)
我正在尝试与芹菜执行器一起使用,但调度程序和工作人员没有接收作业。我已经重新启动了Python 计划程序未拾取打包的DAG(Zip),python,airflow,airflow-scheduler,Python,Airflow,Airflow Scheduler,我正在尝试与芹菜执行器一起使用,但调度程序和工作人员没有接收作业。我已经重新启动了气流网络服务器和气流调度器,但仍然没有成功。我甚至用气流重置DB重置了DB,但仍然没有重置 我收到以下信息:- [INFO] Handling signal: ttou [INFO] Worker exiting (pid: 31418) [INFO] Handling signal: ttin [INFO] Booting worker with pid: 32308 DAG不是手动运行的,甚至不是由计划程序拾
气流网络服务器
和气流调度器
,但仍然没有成功。我甚至用气流重置DB
重置了DB,但仍然没有重置
我收到以下信息:-
[INFO] Handling signal: ttou
[INFO] Worker exiting (pid: 31418)
[INFO] Handling signal: ttin
[INFO] Booting worker with pid: 32308
DAG不是手动运行的,甚至不是由计划程序拾取的
我的zip文件包含以下内容:
unzip alerting.zip
creating: airflow_utils/
inflating: airflow_utils/enums.py
inflating: airflow_utils/psql_alerting_dag.py
extracting: airflow_utils/__init__.py
inflating: airflow_utils/hive_alerting_dag.py
inflating: airflow_utils/alerting_utils.py
inflating: alerting_12hrs.py
inflating: alerting_15mins.py
inflating: alerting_3hrs.py
如果我将所有这些文件放在DAG文件夹中,而不是打包它们,则airflow scheduler可以调度DAG。
我在打包的DAG上做错了什么?我使用的是气流1.8.1,它在从拉链加载DAG时出现问题。此问题已在1.8.3中修复。
为了验证,当您试图使打包的DAG工作时,您是否将其放置在
/dags
目录中?我使用的是airflow 2.0.2,我面临这个问题。dag直接放在/dag
目录中时运行,但如果保留zip(打包dag),则它只运行dag中的第一个任务。