Warning: file_get_contents(/data/phpspider/zhask/data//catemap/2/csharp/318.json): failed to open stream: No such file or directory in /data/phpspider/zhask/libs/function.php on line 167

Warning: Invalid argument supplied for foreach() in /data/phpspider/zhask/libs/tag.function.php on line 1116

Notice: Undefined index: in /data/phpspider/zhask/libs/function.php on line 180

Warning: array_chunk() expects parameter 1 to be array, null given in /data/phpspider/zhask/libs/function.php on line 181
有没有一种方法可以直接从Amazon S3标签中的C#分隔文件批量插入Amazon Aurora RDS?_C#_Amazon S3_Amazon Aurora - Fatal编程技术网

有没有一种方法可以直接从Amazon S3标签中的C#分隔文件批量插入Amazon Aurora RDS?

有没有一种方法可以直接从Amazon S3标签中的C#分隔文件批量插入Amazon Aurora RDS?,c#,amazon-s3,amazon-aurora,C#,Amazon S3,Amazon Aurora,我目前正在使用AmazonRedshift来存储50-100GB(即数百万行)的制表符分隔文件中的聚合数据,这些文件每天都被推到AmazonS3中的一个存储桶中 Redshift提供了一个copy命令,可以直接针对S3存储桶来批量加载数据,从而简化了这一过程 我想使用亚马逊极光RDS来达到同样的目的。目前关于极光的文档最多也很薄。有没有办法直接从S3批量加载到Aurora 据我所知,MySql的加载数据填充需要磁盘上文件的路径,我想我可以通过将tsv下载到AWS实例并从那里运行命令来解决这个问题

我目前正在使用AmazonRedshift来存储50-100GB(即数百万行)的制表符分隔文件中的聚合数据,这些文件每天都被推到AmazonS3中的一个存储桶中

Redshift提供了一个
copy
命令,可以直接针对S3存储桶来批量加载数据,从而简化了这一过程

我想使用亚马逊极光RDS来达到同样的目的。目前关于极光的文档最多也很薄。有没有办法直接从S3批量加载到Aurora

据我所知,MySql的加载数据填充需要磁盘上文件的路径,我想我可以通过将tsv下载到AWS实例并从那里运行命令来解决这个问题,尽管这并不理想

我还尝试将tsv读入内存并构造多个
insert
语句。这显然又慢又笨重

想法

更新日期:2016年11月:

从Aurora 1.8版开始,您现在可以使用以下命令批量加载S3数据:

从S3加载数据

从S3加载XML


2018年7月更新:

更新了AWS文档链接。大声喊马克·霍姆斯,因为他抓住了那个



您可以使用AWS数据管道。甚至还有一个用于将数据从S3加载到RDS的模板:

截至2018年7月,上述“从S3加载Aurora”链接仅进入用户指南主页。此链接直接指向主题,该主题描述了从S3成功加载之前的IAM角色和其他安全先决条件:


这篇文章出现在我搜索结果的顶部,所以我想用最新信息更新它

谢谢你。我将更新问题中的链接。它似乎不支持加密。