Amazon s3 要使用apache airflow[DAG]文件将文件上载到s3吗

Amazon s3 要使用apache airflow[DAG]文件将文件上载到s3吗,amazon-s3,airflow,Amazon S3,Airflow,我想制作一个DAG文件(ApacheAirflow),用于将rar文件上载到任何一个尝试过的s3 bucket。?请允许我建议 我在我的DAG文件中尝试了这些方法,但是出现了一些错误 from airflow.operators import SimpleHttpOperator, HttpSensor, , EmailOperator, S3KeySensor 错误是 /usr/local/lib/python3.6/dist-packages/afflow/utils/helpers.

我想制作一个DAG文件(ApacheAirflow),用于将rar文件上载到任何一个尝试过的s3 bucket。?请允许我建议

我在我的DAG文件中尝试了这些方法,但是出现了一些错误

from airflow.operators import SimpleHttpOperator, HttpSensor,   , EmailOperator, S3KeySensor
错误是

/usr/local/lib/python3.6/dist-packages/afflow/utils/helpers.py:439:不推荐使用警告:已不推荐直接从“afflow.operators”导入“SimpleHttpOperator”。请改为从“airflow.operators.[operator\u module]”导入。气流2.0将完全取消对直接导入的支持

弃用警告) /usr/local/lib/python3.6/dist-packages/aiffort/utils/helpers.py:439:不推荐使用警告:已不推荐直接从“aiffort.operators”导入“HttpSensor”。请改为从“airflow.operators.[operator\u module]”导入。气流2.0将完全取消对直接导入的支持

弃用警告) /usr/local/lib/python3.6/dist-packages/afflow/utils/helpers.py:439:不推荐使用警告:已不推荐直接从“afflow.operators”导入“EmailOperator”。请改为从“airflow.operators.[operator\u module]”导入。气流2.0将完全取消对直接导入的支持


如何解决此问题?

这只是一个警告,而不是错误。
DeprecationWarning
通常提示您正在做的事情现在可以工作,但在将来的版本中可能会中断。如果任务失败,请忽略这些消息并查找正确的错误

操作员代码始终位于气流.operators.[operator_module]下,但为了方便起见,也可直接在气流.operators下使用。例如,
SimpleHttpOperator
是在中定义的,因此从
aiffort.operators.http\u operator
导入它肯定会起作用。但是,从“airflow.operators
导入它也会起作用,因为该代码当前存在于中,至少目前存在于当前版本的airflow中。基本上,您可以通过将导入更新为以下内容来解决这些警告:

from airflow.operators.http_operator import SimpleHttpOperator
from airflow.operators.email_operator import EmailOperator
from airflow.sensors.http_sensor import HttpSensor
from airflow.sensors.s3_key_sensor import S3KeySensor
请注意,目前仅在主分支上,尚未发布任何版本,一些第三方运营商和传感器也已再次移动。例如,
S3KeySensor
将在
providers.amazon.aws.sensors.s3_key.py
下找到。正如所料,从“旧”路径导入将得到类似的弃用消息