Warning: file_get_contents(/data/phpspider/zhask/data//catemap/0/azure/12.json): failed to open stream: No such file or directory in /data/phpspider/zhask/libs/function.php on line 167

Warning: Invalid argument supplied for foreach() in /data/phpspider/zhask/libs/tag.function.php on line 1116

Notice: Undefined index: in /data/phpspider/zhask/libs/function.php on line 180

Warning: array_chunk() expects parameter 1 to be array, null given in /data/phpspider/zhask/libs/function.php on line 181
向海外发送大型(1TB)数据文件的最快方式(Azure或OTS解决方案)_Azure_Azure Storage_Azure Virtual Network - Fatal编程技术网

向海外发送大型(1TB)数据文件的最快方式(Azure或OTS解决方案)

向海外发送大型(1TB)数据文件的最快方式(Azure或OTS解决方案),azure,azure-storage,azure-virtual-network,Azure,Azure Storage,Azure Virtual Network,这项要求是为了促进大型(1 TB)文件尽快从欧洲传输到美国。我将如何在Azure存储/网络中构建一些东西?或者请告诉我一些OTS解决方案,以便我可以了解更多 使用案例是,海上接收的激光雷达数据需要尽快传输回美国东海岸和/或西海岸。发送方可能在数据中心附近,也可能不在数据中心附近 谢谢 从该文档中,我发现了IBMAspera,我将对此进行检查。不过,该文档在这个主题上也有很多很好的信息。Arch,Azure也提供了几种备选方案,这取决于您的场景,还取决于您传输数据的频率,是一次性场景还是每天等 A

这项要求是为了促进大型(1 TB)文件尽快从欧洲传输到美国。我将如何在Azure存储/网络中构建一些东西?或者请告诉我一些OTS解决方案,以便我可以了解更多

使用案例是,海上接收的激光雷达数据需要尽快传输回美国东海岸和/或西海岸。发送方可能在数据中心附近,也可能不在数据中心附近

谢谢


从该文档中,我发现了IBMAspera,我将对此进行检查。不过,该文档在这个主题上也有很多很好的信息。

Arch,Azure也提供了几种备选方案,这取决于您的场景,还取决于您传输数据的频率,是一次性场景还是每天等

AzCopy AzCopy是一个Windows命令行实用程序,用于在Azure存储中进行数据的高性能复制。您还可以在存储帐户内或不同存储帐户之间复制数据

使用慢速网络移动大量数据

与移动大量数据相关的最大挑战之一是传输时间。如果您希望在不担心网络成本或编写代码的情况下从Azure存储获取数据,那么Azure导入/导出是一个合适的解决方案


可以找到许多其他备选方案

工具/产品推荐问题显然与StackOverflow无关。除此之外,这是一个非常广泛的问题,没有“正确”的答案。物理学规定了“尽可能快”实际上可以是什么。您是否尝试过在区域之间复制一个大blob?如果您的Azure存储帐户中有数据,您可以使用AzCopy工具/Azure PowerShell/Storage Explorer将存储帐户对象复制/移动到其他存储帐户。@Vikranth谢谢。我会把它列在名单上。我也在研究Azure文件同步,但这似乎有些过头了。我找到了我要找的东西(我想)。看看我的答案。