Google bigquery 将Amazon RDS与Google BigQuery同步
大家好,我工作的公司在AWS(亚马逊RDS)上有一些MySQL数据库。我们正在用BigQuery制作一个POC,我现在研究的是如何将基复制到BigQuery(现有寄存器和将来的新寄存器)。我的疑问是:Google bigquery 将Amazon RDS与Google BigQuery同步,google-bigquery,amazon-rds,database-replication,Google Bigquery,Amazon Rds,Database Replication,大家好,我工作的公司在AWS(亚马逊RDS)上有一些MySQL数据库。我们正在用BigQuery制作一个POC,我现在研究的是如何将基复制到BigQuery(现有寄存器和将来的新寄存器)。我的疑问是: 如何将MySQL表和行复制到BigQuery。有什么工具可以做到这一点(我正在阅读有关Amazon数据库迁移服务的文章)?我应该复制到Google云SQL,然后导出到BigQuery吗 如何复制未来的寄存器?是否可以在MySQL中创建一个作业,在预定义的数字之后发送新的寄存器?例如,插入1000
- 如何将MySQL表和行复制到BigQuery。有什么工具可以做到这一点(我正在阅读有关Amazon数据库迁移服务的文章)?我应该复制到Google云SQL,然后导出到BigQuery吗
- 如何复制未来的寄存器?是否可以在MySQL中创建一个作业,在预定义的数字之后发送新的寄存器?例如,插入1000个新行(或经过一段时间)后,会“触发”一些事件,并将新寄存器复制到Cloud SQL/BigQuery
我解释得对吗?可以理解吗?您需要使用一个与mySQL和BigQuery集成的ETL工具来执行数据的初始传输,并将后续更改复制到BigQuery。查看可用工具列表[1] 您还可以通过开发一个进程来实现自己的工具,该进程将数据从mySQL提取到CSV文件,然后使用数据导入将该文件加载到BigQuery中[2] [1]
[2] 除了瓦迪姆所说的,你还可以尝试:
- mysqldump将CSV文件转储到s3(我相信RDS允许这样做)
- 运行“gsutil”Google云存储实用程序将数据从s3复制到GCS
- 运行“bq load file.csv”将文件加载到BigQuery
我很想听听你的经历,所以请私下告诉我 我使用xplenty基本上将表从mysql AWS RDS镜像到BQ。Xplenty可以删除并重新创建表。你必须为它付费,但这是非常快速和容易的。注册trail甚至将其用于poc可能会很有用。这就是我所做的,我仍然在使用它,因为让我更加关注更有用的僵硬,比如我如何使用BQ中的数据。可能是一个快速的解决方案,如果只是你这么做,需要快速。