Warning: file_get_contents(/data/phpspider/zhask/data//catemap/0/amazon-s3/2.json): failed to open stream: No such file or directory in /data/phpspider/zhask/libs/function.php on line 167

Warning: Invalid argument supplied for foreach() in /data/phpspider/zhask/libs/tag.function.php on line 1116

Notice: Undefined index: in /data/phpspider/zhask/libs/function.php on line 180

Warning: array_chunk() expects parameter 1 to be array, null given in /data/phpspider/zhask/libs/function.php on line 181
Amazon web services 将数据库和数据仓库迁移到AWS_Amazon Web Services_Amazon S3_Aws Lambda_Amazon Redshift_Amazon Kinesis Firehose - Fatal编程技术网

Amazon web services 将数据库和数据仓库迁移到AWS

Amazon web services 将数据库和数据仓库迁移到AWS,amazon-web-services,amazon-s3,aws-lambda,amazon-redshift,amazon-kinesis-firehose,Amazon Web Services,Amazon S3,Aws Lambda,Amazon Redshift,Amazon Kinesis Firehose,我想将我们的数据库和数据仓库迁移到AWS 我们的on-prem数据库是Oracle,我们在IBM AIX中使用Oracle Data Integrator进行数据仓库 我的第一个想法是使用AWS DMS(数据迁移服务)将我们的数据库迁移到一个暂存点(S3),然后使用Lambda(用于在数据更新、删除或插入时创建触发器)和Kinesis Firehose(用于流式传输和进行ETL)将数据发送到Redshift Redshift中的数据必须是我们的on-prem数据仓库的副本(包含事实和维度、聚合和

我想将我们的数据库和数据仓库迁移到AWS

我们的on-prem数据库是Oracle,我们在IBM AIX中使用Oracle Data Integrator进行数据仓库

我的第一个想法是使用AWS DMS(数据迁移服务)将我们的数据库迁移到一个暂存点(S3),然后使用Lambda(用于在数据更新、删除或插入时创建触发器)和Kinesis Firehose(用于流式传输和进行ETL)将数据发送到Redshift

Redshift中的数据必须是我们的on-prem数据仓库的副本(包含事实和维度、聚合和多个联接),我希望每当on-prem数据库发生任何更改时,它都会自动更新AWS S3和Redshift,以便我的Redshift中可以有近实时的数据

我想知道我的架构是否正确和/或是否有更好的方法


谢谢

为什么不让AWS DMS直接将数据插入Redshift?我们不想再使用ODI,所以我们想将ETL过程迁移到AWS中。