Warning: file_get_contents(/data/phpspider/zhask/data//catemap/2/apache-kafka/3.json): failed to open stream: No such file or directory in /data/phpspider/zhask/libs/function.php on line 167

Warning: Invalid argument supplied for foreach() in /data/phpspider/zhask/libs/tag.function.php on line 1116

Notice: Undefined index: in /data/phpspider/zhask/libs/function.php on line 180

Warning: array_chunk() expects parameter 1 to be array, null given in /data/phpspider/zhask/libs/function.php on line 181
Apache kafka kafka从组中删除连接_Apache Kafka_Spring Kafka - Fatal编程技术网

Apache kafka kafka从组中删除连接

Apache kafka kafka从组中删除连接,apache-kafka,spring-kafka,Apache Kafka,Spring Kafka,我使用kafka和spring引导应用程序来消费消息 阅读主题中的一些消息后,我将收到此错误 [2020-07-07 17:05:32265]信息[GroupCoordinator 1001]:成员消费者-1-708fe639-905d-432a-b6ba-17bf58adcf03团体内自行车服务产品已离开,将其从团体中移除(卡夫卡.协调员.团体.团体协调员) [2020-07-07 17:05:32267]信息[GroupCoordinator 1001]:准备重新平衡州内的团体自行车服务产品

我使用kafka和spring引导应用程序来消费消息 阅读主题中的一些消息后,我将收到此错误

[2020-07-07 17:05:32265]信息[GroupCoordinator 1001]:成员消费者-1-708fe639-905d-432a-b6ba-17bf58adcf03团体内自行车服务产品已离开,将其从团体中移除(卡夫卡.协调员.团体.团体协调员) [2020-07-07 17:05:32267]信息[GroupCoordinator 1001]:准备重新平衡州内的团体自行车服务产品准备与老一代460(消费者补偿-7)重新平衡(原因:删除LeaveGroup上的成员consumer-1-708fe639-905d-432a-b6ba-17bf58adcf03)(kafka.coordinator.group.coordinator) [2020-07-07 17:05:32267]信息[GroupCoordinator 1001]:第461代的团体自行车服务产品现在为空(u消费者_-7)(卡夫卡.协调员.团体.团体协调员)

这是我在消费者端的配置


spring.kafka.listener.poll超时=3000000

spring.kafka.consumer.heartbeat interval=500

spring.kafka.consumer.fetch max wait=3000000

spring.kafka.consumer.auto commit interval=1000


如何修复它?

代理已确定您的消费者已死亡,因为它没有在所需的时间间隔内调用
poll()

查看以下参数:

  • max.poll.interval.ms
  • session.timeout.ms
这些将决定何时您的消费者将被视为死亡,并抛出您正在显示的异常。注意处理消息所需的时间,如果消息大于定义的
max.poll.interval.ms
,则应:

  • 减少处理消息并再次调用
    poll()
    所需的时间
  • 增加
    max.poll.interval.ms
    session.timeout.ms
    间隔

  • 和/或减少
    max.poll.records
    。同意,如果在收到的迭代器上循环。无论如何,我一直认为不循环(只调用next())然后再次调用poll()是一个更好的主意,因为如果消费者已经拥有未处理的消息,poll()将无所作为,同时避免消费者超时和遵循重新平衡。说得好,反正spring.kafka.listener.poll timeout=3000000 spring.kafka.consumer.heartbeat interval=500 spring.kafka.consumer.fetch max wait=3000000 spring.kafka.consumer.auto commit interval=1000我在消费者端设置了此配置是否有错误的配置?尝试将轮询超时设置为更高的值。但是,不管怎样,看看为什么你的消费者会花那么多时间再次循环并处理下一条消息,这可能是关键所在