Azure functions 传输编码设置为chunked的Azure函数

Azure functions 传输编码设置为chunked的Azure函数,azure-functions,Azure Functions,我有一个azure function(),它应该接收csv、xls或zip文件并将该文档转换为json。现在我遇到的问题是双重的 首先,如果我试图上传一个超过100MB的文件,它会告诉我这个文件太大了。我允许你上传一个zip文件,该函数将解压并处理这个文件。但是,由此产生的JSON负载太大了。我“想”通过允许传输编码设置为chunked来绕过这个问题,但我在网上找不到任何关于如何实现这一点的文档 有什么想法吗?我想更多的是一个设计问题: 您可以接受URL作为输入,而不是文件内容。这样,您就不受有

我有一个azure function(),它应该接收csv、xls或zip文件并将该文档转换为json。现在我遇到的问题是双重的

首先,如果我试图上传一个超过100MB的文件,它会告诉我这个文件太大了。我允许你上传一个zip文件,该函数将解压并处理这个文件。但是,由此产生的JSON负载太大了。我“想”通过允许传输编码设置为chunked来绕过这个问题,但我在网上找不到任何关于如何实现这一点的文档


有什么想法吗?

我想更多的是一个设计问题:

  • 您可以接受URL作为输入,而不是文件内容。这样,您就不受有效负载大小的限制。URL可以是指向datalake/外部源的任何URL,带有/不带身份验证令牌
  • 同时返回压缩后的结果。不是C#专家,但大多数体面的语言都允许您创建压缩的输入/输出流。从压缩输入流中读取,转换为json并写入压缩输出流。在末尾返回输出流的内容
  • 将结果作为URL返回。在某处(如datalake)写入输出并返回URL。有/没有身份验证

  • 我想更多的是一个设计问题:

  • 您可以接受URL作为输入,而不是文件内容。这样,您就不受有效负载大小的限制。URL可以是指向datalake/外部源的任何URL,带有/不带身份验证令牌
  • 同时返回压缩后的结果。不是C#专家,但大多数体面的语言都允许您创建压缩的输入/输出流。从压缩输入流中读取,转换为json并写入压缩输出流。在末尾返回输出流的内容
  • 将结果作为URL返回。在某处(如datalake)写入输出并返回URL。有/没有身份验证

  • 我可以尝试这种方法,我将其作为逻辑应用程序的一部分使用,因此这是获得blob触发器后最简单的方法,但我可以尝试发送URL,而不是blob本身,以及任何有关压缩的链接或教程?我也可以尝试谷歌搜索。我可以尝试这种方法,我将其作为逻辑应用程序的一部分使用,因此这是获得blob触发器后最简单的方法,但我可以尝试发送URL,而不是blob本身,以及任何有关压缩的链接或教程?我也可以用谷歌搜索一下。