Apache kafka Kafka Stream Reducer没有减少记录

Apache kafka Kafka Stream Reducer没有减少记录,apache-kafka,apache-kafka-streams,Apache Kafka,Apache Kafka Streams,下面是一些示例代码,我们试图根据一些记录值(在本例中为id)删除重复项。当我发布两条具有相同ID的记录时,我会收到两条打印语句。我在等1。我是新来的溪流,所以我肯定我误解了什么 kstream.groupBy((key, value) -> value.getId()) .reduce((aggValue, newValue) -> aggValue) .toStream()

下面是一些示例代码,我们试图根据一些记录值(在本例中为id)删除重复项。当我发布两条具有相同ID的记录时,我会收到两条打印语句。我在等1。我是新来的溪流,所以我肯定我误解了什么

 kstream.groupBy((key, value) -> value.getId())
                    .reduce((aggValue, newValue) -> aggValue)
                    .toStream()
                    .foreach((key,value) -> {
                        System.out.println(value);
                    })

reduce操作根据定义的加法器生成一个ktable

KTable<Interger, String> aggregatedStream = kstream.groupBy((key, value) -> value.getId())
                    .reduce((aggValue, newValue) -> aggValue)

reduce操作根据定义的加法器生成一个ktable

KTable<Interger, String> aggregatedStream = kstream.groupBy((key, value) -> value.getId())
                    .reduce((aggValue, newValue) -> aggValue)

谢谢你的解释,我看我做得不对。我将发布一个新的问题和我试图解决的真正问题。太好了。因此,如果你认为,它解决了你的问题,你可以接受答案,这样对其他人会有帮助:)谢谢我这么做了。这是一个新问题,如果你能回答的话:-)@克里斯:酷,回答了你的另一个问题。请检查这是否解决了您的问题。请您解释一下,我看我是走错了方向。我将发布一个新的问题和我试图解决的真正问题。太好了。因此,如果你认为,它解决了你的问题,你可以接受答案,这样对其他人会有帮助:)谢谢我这么做了。这是一个新问题,如果你能回答的话:-)@克里斯:酷,回答了你的另一个问题。请检查这是否解决了您的问题