kafka代理管理-日志清理策略

afdcj2ne  于 2021-06-08  发布在  Kafka
关注(0)|答案(0)|浏览(242)

我可以看到一个相关的错误已经提出了Kafka吉拉。总之,代理无法安排日志清理,因为相关的日志文件既不能压缩也不能重命名以便删除。但看起来还没有解决。我想知道是否有其他人经历过这个问题,以及任何解决方法(如果存在)?
似乎在集群完全(并且优雅地)关闭之前,日志文件永远不会关闭。有谁能提出一个解决办法吗?
我的群集信息
1) 3个代理和3个管理员2)同一台笔记本电脑上的标准开发设置3)所有日志文件都在公共目录下 /tmp 目录,但结构在不同的子目录中

/temp/zookeeper
/temp/zookeeper2
/temp/zookeeper3
/temp/kafka-logs
/temp/kafka-logs2
/temp/kafka-logs3

我的代理配置(每个serverx.properties文件正确替换代理ID和日志文件位置)


# The id of the broker. This must be set to a unique integer for each broker.

broker.id=0
listeners=PLAINTEXT://localhost:9092
listener.security.protocol.map=PLAINTEXT:PLAINTEXT,SSL:SSL
num.network.threads=3
num.io.threads=8
socket.send.buffer.bytes=102400
socket.receive.buffer.bytes=102400
socket.request.max.bytes=999999999

log.dirs=/tmp/kafka-logs

num.partitions=1
num.recovery.threads.per.data.dir=1
log.retention.hours=2
log.retention.bytes=262144000
log.segment.bytes=262144000
log.roll.hours=1    
log.retention.check.interval.ms=300000
offsets.retention.minutes=60
offsets.retention.check.interval.ms=300000
zookeeper.connect=localhost:2181,localhost:2182,localhost:2183

# Timeout in ms for connecting to zookeeper

zookeeper.connection.timeout.ms=30000

# Compression details

compression.type=gzip

# delete topic enable

delete.topic.enable=true

韩元,

暂无答案!

目前还没有任何答案,快来回答吧!

相关问题