client没有变化可以不用升级
版本内容
拆分redis队列和redis管理,支持不同的项目不同的队列
报警支持类名模糊匹配
报警信息输出部分详细日志
开放了API接口方便非java项目,或者其他组件日志输入
支持按小时分片日志,大大增加了性能,使得在机械硬盘上也能够跑出不错的效果
其他内部优化
server配置进行了变化,增加了配置,原来的配置不变
增加配置 | 用途 |
---|---|
plumelog.queue.redis.redisHost | 队列redis独立开来,好处不同的项目可以用不通的redis当队列,提高性能 |
plumelog.es.shards | 单个日志分片数,如果每个索引日志大小超过20个G这边要配置大小,默认5个 |
plumelog.es.replicas | 副本数,日志大了要提升检索效率可以增加副本数,一般机械硬盘下面可以设置1,SSD设置0,设置副本增大成倍硬盘开销 |
plumelog.es.refresh.interval | 日志缓冲区时间,默认30秒 |
plumelog.es.indexType.model | 按天,还是按小时划分日志索引,单天超过200G,可以设置按小时,设置按小时要注意设置ES总分片数 |
admin.log.trace.keepDays | 链路日志可以单独设置过期时间 |
login.username | 登录用户名 |
login.password | 登录密码 |
推荐配置
plumelog.es.shards=5
plumelog.es.replicas=0
plumelog.es.refresh.interval=30s
plumelog.es.indexType.model=day
plumelog.es.shards=5
plumelog.es.replicas=0
plumelog.es.refresh.interval=30s
plumelog.es.indexType.model=hour
plumelog.es.shards=10
plumelog.es.replicas=0
plumelog.es.refresh.interval=30s
plumelog.es.indexType.model=hour
plumelog.es.shards=10
plumelog.es.replicas=1
plumelog.es.refresh.interval=30s
plumelog.es.indexType.model=hour
PUT /_cluster/settings
{
"persistent": {
"cluster": {
"max_shards_per_node":100000
}
}
}
client
kafka提供了'compressionType'字段配置kafka的压缩模式
redis提供了'compressor'字段配置来开启日志压缩功能,开启后会使用新的队列
server
提供消费压缩队列的配置:plumelog.redis.compressor
开启消费压缩队列后server端讲不再消费非压缩队列,版本升级时记得消费完相应队列数据
版本内容
实测压缩率,使用demo接口