Warning: file_get_contents(/data/phpspider/zhask/data//catemap/9/blackberry/2.json): failed to open stream: No such file or directory in /data/phpspider/zhask/libs/function.php on line 167

Warning: Invalid argument supplied for foreach() in /data/phpspider/zhask/libs/tag.function.php on line 1116

Notice: Undefined index: in /data/phpspider/zhask/libs/function.php on line 180

Warning: array_chunk() expects parameter 1 to be array, null given in /data/phpspider/zhask/libs/function.php on line 181
最快的Azure Blob存储复制方法?_Azure_Azure Storage Blobs - Fatal编程技术网

最快的Azure Blob存储复制方法?

最快的Azure Blob存储复制方法?,azure,azure-storage-blobs,Azure,Azure Storage Blobs,我们现在的情况是,我们需要将所有数据从Blob存储帐户复制到同一个粗略区域的另一个节点(假设我们从欧洲复制到东北欧) 目前,我们只有一个将内容写入特定容器的应用程序,以及其他写入其他容器的应用程序 理想情况下,我想复制所有这些 我已经研究了以下内容: Azure Blob存储地理复制 Azure事件网格 只是在其他应用程序中自己编写blob 问题在于1。更新的blob的交付时间没有保证。例如,这可能需要5分钟,这在我们的用例中太长了。这在他们的SLA中定义 问题在于2。就是不能保证交付时间——只

我们现在的情况是,我们需要将所有数据从Blob存储帐户复制到同一个粗略区域的另一个节点(假设我们从欧洲复制到东北欧)

目前,我们只有一个将内容写入特定容器的应用程序,以及其他写入其他容器的应用程序

理想情况下,我想复制所有这些

我已经研究了以下内容:

  • Azure Blob存储地理复制

  • Azure事件网格

  • 只是在其他应用程序中自己编写blob

  • 问题在于1。更新的blob的交付时间没有保证。例如,这可能需要5分钟,这在我们的用例中太长了。这在他们的SLA中定义

    问题在于2。就是不能保证交付时间——只保证至少交付一次,无论是到预定目的地还是死信队列

    这个问题与3有关。是延迟、成本&必须一次重新设计几个应用程序

    在3我们有一个应用程序监听发布到Azure服务总线的消息。它根据这些消息进行操作,并根据存储在现场数据库中的数据创建blob。然后,它将这些blob上传到它所属的特定容器中,并发布一条消息说它已经这样做了。 这里的问题是,我们需要从一个数据中心写入到另一个数据中心,产生带宽费用,并要求该应用程序完成双倍的工作。 我们还需要确保编写blob,并实现一种方法来确保一致性——即,如果一个位置出现故障,我们需要能够在其备份后进行复制

    那么-这里最快的复制方法是什么?我想是3号吧。然而,是否还有另一个迄今为止尚未想到的解决办法

    编辑:4。将生成的文件作为消息发送到服务总线,并由专用于写入的应用程序拾取,托管在每个地理位置。
    这里的问题是对消息大小的限制(有道理!)我们的文件超过1MB。

    您能试试吗?没有尺寸限制。我会看看的,谢谢!这是我以前没有研究过的一件事。不幸的是,它和事件网格一样存在问题——因为它本质上是同一件事。