如何读取大型JSON文件作为Azure流分析的输入

如何读取大型JSON文件作为Azure流分析的输入,azure,azure-stream-analytics,stream-analytics,Azure,Azure Stream Analytics,Stream Analytics,我提供了一个5 MB大小的JSON文件作为Azure Stream Analytics的输入,我得到了以下错误 “选定的文件‘filename’必须介于1和2097152字节之间” 选择的流媒体单元数为3。如何进行流分析以读取一个大的Json文件作为输入?我认为这对于ASA作业的测试是有限制的,您可以在查询编辑器中上传Json文件,仅在2M以下 根据官方文件中的规定 对于需要存储大量非结构化数据的场景 云、Azure Blob存储提供了经济高效且可扩展的 解决方案Blob存储中的数据通常被认为

我提供了一个5 MB大小的JSON文件作为Azure Stream Analytics的输入,我得到了以下错误

“选定的文件‘filename’必须介于1和2097152字节之间”


选择的流媒体单元数为3。如何进行流分析以读取一个大的Json文件作为输入?

我认为这对于ASA作业的测试是有限制的,您可以在查询编辑器中上传Json文件,仅在2M以下

根据官方文件中的规定

对于需要存储大量非结构化数据的场景 云、Azure Blob存储提供了经济高效且可扩展的 解决方案Blob存储中的数据通常被认为是静态数据; 但是,blob数据可以作为一个数据流逐流处理 分析


我建议您将大尺寸json文件存储到blob存储中,并将其作为数据流进行处理。

将大尺寸json文件存储到blob存储中,并作为输入输入输入到流分析中。谢谢@Jay Gong

谢谢@Jay Gong。将尝试将json文件添加到blob存储中。@Antony Good,如果有效,您可以标记答案供其他人参考,谢谢。我确认这是测试经验的限制。我将要求团队更新错误消息以使其更清楚。谢谢你的反馈。