Amazon s3 使用气流将数据从红移卸载到S3

Amazon s3 使用气流将数据从红移卸载到S3,amazon-s3,amazon-redshift,airflow,airflow-operator,Amazon S3,Amazon Redshift,Airflow,Airflow Operator,我想将数据从红移数据库卸载到一个S3存储桶中,该存储桶稍后将用于复制到另一个数据库中。我已将我的DAG写如下: from airflow.operators import RedshiftToS3Transfer from datetime import datetime, timedelta from airflow import DAG default_args = { 'owner': 'me', 'start_date': datetime.today(), 'max_ac

我想将数据从红移数据库卸载到一个S3存储桶中,该存储桶稍后将用于复制到另一个数据库中。我已将我的DAG写如下:

from airflow.operators import RedshiftToS3Transfer
from datetime import datetime, timedelta
from airflow import DAG

default_args = {
  'owner': 'me',
  'start_date': datetime.today(),
  'max_active_runs': 1,
}

dag = DAG(dag_id='redshift_S3',
  default_args=default_args,
  schedule_interval="@once",
  catchup=False
)

unload_to_S3 = RedshiftToS3Transfer(
  task_id='unload_to_S3',
  schema='schema_name',
  table='table_name',
  s3_bucket='bucket_name',
  s3_key='s3_key',
  redshift_conn_id='redshift',
  aws_conn_id='my_s3_conn',
  dag=dag
)

但我收到一个错误“Breaked DAG:无法从'airflow.operators'(未知位置)导入名称'redshiftotos3Transfer'。任何关于如何导入redshiftotos3transfer的想法都会有所帮助。

正确的导入方法是


从afflow.operators.redshift_到_s3_operator import redshiftotos3 transfer

您好,如果您正在回答自己的问题,请将其作为问题的答案,而不是更新。这表明这个问题已经得到了回答。