Azure data factory 使用azure数据工厂发布大型文件

Azure data factory 使用azure数据工厂发布大型文件,azure-data-factory,Azure Data Factory,我在寻求一些建议。我需要从blob存储中读取一个大文件(>500MB)(在静止状态下进行加密),其中包含密钥库中的密钥。然后我需要使用表单数据将文件(它是一个zip)按原样推送到一个REST服务,并将文件作为主体 我尝试使用web请求,但显然有效负载限制为1.5MB 有什么建议吗?有效负载大小限制应该由REST API的服务器决定,因此不太可能有这样的限制。即使可以,我认为尝试发送一个负载那么大的文件也会充满问题。超时、延迟、校验和失败等。我知道这没有多大帮助,但我肯定会寻找不同的解决方案。非常

我在寻求一些建议。我需要从blob存储中读取一个大文件(>500MB)(在静止状态下进行加密),其中包含密钥库中的密钥。然后我需要使用表单数据将文件(它是一个zip)按原样推送到一个REST服务,并将文件作为主体

我尝试使用web请求,但显然有效负载限制为1.5MB


有什么建议吗?

有效负载大小限制应该由REST API的服务器决定,因此不太可能有这样的限制。即使可以,我认为尝试发送一个负载那么大的文件也会充满问题。超时、延迟、校验和失败等。我知道这没有多大帮助,但我肯定会寻找不同的解决方案。非常感谢您的反馈,我明白直观地使用REST上载大型二进制有效负载没有意义,但我的理解是,将大型文件上载到blob存储,azure客户端依赖于http(实际上是http!=rest)。我遗漏了什么吗?HTTP(S)是协议,但上传几乎肯定是以块/块的形式完成的,而不是作为单个有效负载。AzCopy、Storage Explorer和SDK都是这样操作的。当您将数据添加到REST有效负载时,它不会尝试将整个二进制值作为单个属性包含吗?感谢您的回答,实际上我指的是具有REST有效负载和多部分的REST服务。但我可以先将它拆分并使用多部分进行上传。使用多部分推送文件的最佳方式是什么。我的服务器是Apache Oak: