elasticsearch kafka connect elasticsearch:如何将elasticsearch与消费群体同步?
我想查询卡夫卡主题中的消息,但不是从一开始就查询所有消息。我只需要查看哪些消息尚未根据消费者组提交。所以,基本上我想要的是删除偏移量低于消费群体偏移量的文档 在这一点上,如果我使用elastic connector,是否有任何方法或解决方法可以在消息被消费和提交后从弹性索引中删除文档
elasticsearch kafka connect elasticsearch:如何将elasticsearch与消费群体同步?,
elasticsearch,apache-kafka,apache-kafka-connect,confluent-platform,
elasticsearch,Apache Kafka,Apache Kafka Connect,Confluent Platform,我想查询卡夫卡主题中的消息,但不是从一开始就查询所有消息。我只需要查看哪些消息尚未根据消费者组提交。所以,基本上我想要的是删除偏移量低于消费群体偏移量的文档 在这一点上,如果我使用elastic connector,是否有任何方法或解决方法可以在消息被消费和提交后从弹性索引中删除文档 或者,我应该如何使用Kafka Streams?接收器连接器仅在显式启用该属性并且您正在阅读的主题中存在文档ID的空值记录时删除文档。这意味着您需要实际使用这个空记录,并让连接器处理它 查看哪些消息尚未提交 这意味
或者,我应该如何使用Kafka Streams?接收器连接器仅在显式启用该属性并且您正在阅读的主题中存在文档ID的空值记录时删除文档。这意味着您需要实际使用这个空记录,并让连接器处理它 查看哪些消息尚未提交 这意味着连接器未处理的消息,使其无法在Elasticsearch中搜索 删除其偏移量低于用户组偏移量的文档 如果在Elasticsearch中创建了仅由连接器使用的新索引,则可以暂停连接器,然后继续连接器 在消息被消费和提交后,是否有任何方法或解决方法可以从弹性索引中删除文档
直接使用DELETE APIhi@OneCricketeer,谢谢你宝贵的回答,但我想我被误解了。我的意思是,我只想查询其他特定消费群体尚未消费的事件。我不是指流api。你对这种情况怎么看?1-通过kafka连接器以如下格式(doc_id=key,doc={partition,offset,event})将事件写入elasticsearch索引2-获取分区和偏移量信息消费时上次消费的事件。3-删除分区等于且偏移量低于上次使用事件的弹性文档。您仅使连接器接收来自特定主题集的数据。这组主题(而不是接收器连接器本身)有自己的消费者群体。无法使连接器处理来自其他用户组的数据。就像我说的,连接器只删除特定墓碑事件上的文档,而不删除任何其他dataok上的文档,明白了吗。再次感谢您的帮助和关注。