Python KafkaTimeoutError:在60.0秒后更新元数据失败
我有一个高通量kafka producer的用例,我希望每秒推送数千条json消息 我有一个3节点的kafka集群,我正在使用最新的kafka python库,并使用以下方法生成消息Python KafkaTimeoutError:在60.0秒后更新元数据失败,python,apache-kafka,kafka-producer-api,kafka-python,Python,Apache Kafka,Kafka Producer Api,Kafka Python,我有一个高通量kafka producer的用例,我希望每秒推送数千条json消息 我有一个3节点的kafka集群,我正在使用最新的kafka python库,并使用以下方法生成消息 def publish_to_kafka(topic): data = get_data(topic) producer = KafkaProducer(bootstrap_servers=['b1', 'b2', 'b3'], value_
def publish_to_kafka(topic):
data = get_data(topic)
producer = KafkaProducer(bootstrap_servers=['b1', 'b2', 'b3'],
value_serializer=lambda x: dumps(x).encode('utf-8'), compression_type='gzip')
try:
for obj in data:
producer.send(topic, value=obj)
except Exception as e:
logger.error(e)
finally:
producer.close()
我的主题有3个分区
方法有时工作正常,但出现错误“KafkaTimeoutError:在60.0秒后更新元数据失败”
我需要更改哪些设置才能使其顺利工作
auto.create.topics.enable=true
(注意,这是Confluent Kafka中的默认值)max.block.ms=1200000
(120秒,用于ex)您能否共享您的Kafka broker配置(
server.properties
)?另外,当你说它有时会失败时,你是说使用完全相同的主题吗?