Azure 流分析查询达到大小限制

Azure 流分析查询达到大小限制,azure,azure-stream-analytics,Azure,Azure Stream Analytics,我是Azure Stream Analytics的新手。我有一个事件中心作为输入源,现在我正试图在这个流上执行一个简单的查询。示例查询如下所示: SELECT count(*) INTO [output1] FROM [input1] TIMESTAMP BY Time GROUP BY TumblingWindow(second, 10) 所以我想计算在一定时间范围内发生的事件 执行此查询时,我始终会遇到以下错误: 请求超出了允许的最大大小限制 因为我已经缩小了检查的时间窗口,并且我确定在此

我是Azure Stream Analytics的新手。我有一个事件中心作为输入源,现在我正试图在这个流上执行一个简单的查询。示例查询如下所示:

SELECT
count(*)
INTO [output1]
FROM
[input1] TIMESTAMP BY Time
GROUP BY TumblingWindow(second, 10)
所以我想计算在一定时间范围内发生的事件

执行此查询时,我始终会遇到以下错误:

请求超出了允许的最大大小限制

因为我已经缩小了检查的时间窗口,并且我确定在此时间范围内的事件数量不是很大(最多100个) 我不知道如何避免这个错误

你有什么提示吗

谢谢

请求超出了允许的最大大小限制

这个错误(我认为应该更明确)表明您违反了

这不仅仅是数量的问题,也是大小的问题。请检查源输入的大小,或者尝试缩小窗口大小,然后再次测试


1.源查询的记录大小是否表示一个事件只能有64 KB,或者此参数是否表示64 K个事件

这意味着一个事件的大小应该小于64KB

  • 是否有可能使用流分析仅选择某些 事件或的子字段是减小事件大小的唯一方法 在发送到事件中心之前
  • 据我所知,ASA只收集用于处理的数据,因此大小完全取决于源端和您的查询sql。由于您需要使用
    COUNT
    ,恐怕您必须在eventhub方面做一些事情。请参考我的想法:


    使用,当一个事件流到事件中心时,触发该函数并仅选取部分键值并将其保存到另一个事件中心命名空间中。(只是为了减少源事件的大小)。无论如何,您只需
    计数
    记录,我想它对您有效。

    谢谢您的回复。确实,我尝试执行查询的事件非常大。一个事件大约有400 KB。是否可以使用流分析仅选择事件的某些子字段,或者是在将事件发送到事件中心之前减小事件大小的唯一方法?源查询的记录大小是否意味着一个事件只能有64 KB,或者此参数是否意味着64 K事件?