Mongodb 使用Spring Cloud Stream Kafka计算接收到的事件数据的聚合

Mongodb 使用Spring Cloud Stream Kafka计算接收到的事件数据的聚合,mongodb,apache-kafka,spring-cloud-stream,Mongodb,Apache Kafka,Spring Cloud Stream,我刚刚开始使用SpringCloudStreamKafka 我制作了一个简单的生产者和消费者应用程序,它可以很好地与SpringCloudStreamKafka配合使用 我现在需要计算通过主题接收并保存在Kafka中的事件数据的聚合(总和,平均值) 然后,计算出的聚合将通过请求-响应层在UI中提供服务 我想知道SpringCloudStream和/或Kafka中是否支持聚合 我还考虑将数据从Kafka移动到Mongo store,然后在那里执行聚合查询(或)计算聚合并仅将它们而不是原始数据持久化

我刚刚开始使用SpringCloudStreamKafka

我制作了一个简单的生产者和消费者应用程序,它可以很好地与SpringCloudStreamKafka配合使用

我现在需要计算通过主题接收并保存在Kafka中的事件数据的聚合(总和,平均值)

然后,计算出的聚合将通过请求-响应层在UI中提供服务

我想知道SpringCloudStream和/或Kafka中是否支持聚合

我还考虑将数据从Kafka移动到Mongo store,然后在那里执行聚合查询(或)计算聚合并仅将它们而不是原始数据持久化到Mongo data store


如果有人在类似的场景中工作过,请告诉我您对如何继续工作的想法。

您可以使用
反应式
Spring Cloud Stream应用程序,该应用程序提供了这些现成的聚合、窗口化操作符。是这种应用的一个例子