无法从Azure存储获取日志

无法从Azure存储获取日志,azure,docker,kubernetes,airflow,Azure,Docker,Kubernetes,Airflow,我通过Azure中的terraform在Kubernetes集群上部署了气流 DAG能够成功运行,并且日志被写入Azure存储容器 但是,在Airflow UI中,当我尝试访问任务的日志时,它无法从同一容器中获取日志。这就是它给出的错误 *** Log file does not exist: /usr/local/airflow/logs/<dag_name>/<task_name>/2020-11-10T23:19:17.444280+00:00/1.log ***

我通过Azure中的terraform在Kubernetes集群上部署了气流

DAG能够成功运行,并且日志被写入Azure存储容器

但是,在Airflow UI中,当我尝试访问任务的日志时,它无法从同一容器中获取日志。这就是它给出的错误

*** Log file does not exist: /usr/local/airflow/logs/<dag_name>/<task_name>/2020-11-10T23:19:17.444280+00:00/1.log
*** Fetching from: http://xxxxxx:8793/log/<dag_name>/<task_name>/2020-11-10T23:19:17.444280+00:00/1.log
*** Failed to fetch log file from worker. HTTPConnectionPool(host='xxxxxx', port=8793): Max retries exceeded with url: /log/<dag_name>/<task_name>/2020-11-10T23:19:17.444280+00:00/1.log (Caused by NewConnectionError('<urllib3.connection.HTTPConnection object at 0x7fac1bd99310>: Failed to establish a new connection: [Errno -3] Temporary failure in name resolution'))
***日志文件不存在:/usr/local/afflow/logs///2020-11-10T23:19:17.444280+00:00/1.Log
***正在从以下位置获取:http://xxxxxx:8793/log///2020-11-10T23:19:17.444280+00:00/1.log
***无法从辅助进程获取日志文件。HTTPConnectionPool(主机='xxxxxx',端口=8793):url超过最大重试次数:/log///2020-11-10T23:19:17.444280+00:00/1.log(由NewConnectionError引起(':未能建立新连接:[Errno-3]名称解析中的临时故障])
我确保所有凭证和名称都是正确的,这很奇怪,因为它可以在同一位置写入,但无法读取


关于如何解决这一问题的任何线索都将受到高度赞赏。提前谢谢

通过在Kubernetes群集上重新启动部署,解决了这一问题