Warning: file_get_contents(/data/phpspider/zhask/data//catemap/0/amazon-s3/2.json): failed to open stream: No such file or directory in /data/phpspider/zhask/libs/function.php on line 167

Warning: Invalid argument supplied for foreach() in /data/phpspider/zhask/libs/tag.function.php on line 1116

Notice: Undefined index: in /data/phpspider/zhask/libs/function.php on line 180

Warning: array_chunk() expects parameter 1 to be array, null given in /data/phpspider/zhask/libs/function.php on line 181
Azure S3和Blob存储之间的数据传输_Azure_Amazon S3_Azure Storage Blobs - Fatal编程技术网

Azure S3和Blob存储之间的数据传输

Azure S3和Blob存储之间的数据传输,azure,amazon-s3,azure-storage-blobs,Azure,Amazon S3,Azure Storage Blobs,我们有大量1PB(实时)数据,必须在S3和Azure Blob存储之间定期传输。你用什么工具?您使用什么策略来最小化传输成本和停机时间 我们已经评估了许多解决方案,包括AzCopy,但没有一个满足我们的所有要求。我们是一家小型初创公司,因此我们希望避免使用本土解决方案 谢谢你可能是你最好的选择 访问不断扩大的80多个预建连接器组合,包括Azure数据服务、内部部署数据源、Amazon S3和Redshift,以及Google BigQuery,无需额外费用。Data Factory利用底层网络带

我们有大量1PB(实时)数据,必须在S3和Azure Blob存储之间定期传输。你用什么工具?您使用什么策略来最小化传输成本和停机时间


我们已经评估了许多解决方案,包括AzCopy,但没有一个满足我们的所有要求。我们是一家小型初创公司,因此我们希望避免使用本土解决方案

谢谢你

可能是你最好的选择

访问不断扩大的80多个预建连接器组合,包括Azure数据服务、内部部署数据源、Amazon S3和Redshift,以及Google BigQuery,无需额外费用。Data Factory利用底层网络带宽的全部容量,提供高达1.5 GB/s吞吐量的高效弹性数据传输


“没有一个能满足我们所有的要求”你的要求是什么?想知道哪些要求不能满足。也许我们可以在适当的时候给AzCopy添加一些内容。