Apache kafka Kafka Broker管理-日志清理策略

Apache kafka Kafka Broker管理-日志清理策略,apache-kafka,messagebroker,Apache Kafka,Messagebroker,我可以看到在中提出了一个相关的bug。总之,代理无法安排日志清理,因为无法压缩或重命名相关日志文件以进行删除。但问题似乎还没有解决。我想知道是否有其他人遇到过这个问题,以及有什么解决方法(如果存在) 在集群完全(且正常)关闭之前,日志文件似乎永远不会关闭。谁能提出一个解决办法 我的群集信息 1) 3名经纪人和3名动物园管理员 2) 同一台笔记本电脑上的标准开发设置 3) 所有日志文件都在公共/tmp目录下,但结构在不同的子目录中 /temp/zookeeper /temp/zookeeper2

我可以看到在中提出了一个相关的bug。总之,代理无法安排日志清理,因为无法压缩或重命名相关日志文件以进行删除。但问题似乎还没有解决。我想知道是否有其他人遇到过这个问题,以及有什么解决方法(如果存在)

在集群完全(且正常)关闭之前,日志文件似乎永远不会关闭。谁能提出一个解决办法

我的群集信息

1) 3名经纪人和3名动物园管理员 2) 同一台笔记本电脑上的标准开发设置 3) 所有日志文件都在公共
/tmp
目录下,但结构在不同的子目录中

/temp/zookeeper
/temp/zookeeper2
/temp/zookeeper3
/temp/kafka-logs
/temp/kafka-logs2
/temp/kafka-logs3
我的代理配置(每个serverX.properties文件正确替换代理ID和日志文件位置)


KR,

在我的设置中,我还没有看到这种情况发生,每次我更改保留策略时,代理都会安排删除旧的日志文件,这些文件随后会被删除。@AmitKumar感谢您的评论。您介意分享您的配置以及群集设置信息吗?我已使用当前群集信息更新了问题
# The id of the broker. This must be set to a unique integer for each broker.
broker.id=0
listeners=PLAINTEXT://localhost:9092
listener.security.protocol.map=PLAINTEXT:PLAINTEXT,SSL:SSL
num.network.threads=3
num.io.threads=8
socket.send.buffer.bytes=102400
socket.receive.buffer.bytes=102400
socket.request.max.bytes=999999999

log.dirs=/tmp/kafka-logs

num.partitions=1
num.recovery.threads.per.data.dir=1
log.retention.hours=2
log.retention.bytes=262144000
log.segment.bytes=262144000
log.roll.hours=1    
log.retention.check.interval.ms=300000
offsets.retention.minutes=60
offsets.retention.check.interval.ms=300000
zookeeper.connect=localhost:2181,localhost:2182,localhost:2183
# Timeout in ms for connecting to zookeeper
zookeeper.connection.timeout.ms=30000
# Compression details
compression.type=gzip
# delete topic enable
delete.topic.enable=true