问题描述:
线上的一个数据接收服务最近数据量比较大,日志也打的很频繁,但是却出现了totalSizeCap配置不生效,无法删除日志文件的问题,每天日志一度回滚累计到几千个 。
日志设置maxHistory 30,maxFileSize 20MB,totalSizeCap 5GB
1 | <rollingPolicy class="ch.qos.logback.core.rolling.SizeAndTimeBasedRollingPolicy"> |
问题排查:
面向Google查询相关问题,看到一个logback无法处理totalSizeCap 超过2GB的bug
1 | void capTotalSize(Date now) { |
这段代码定义了totalSize来累加当前日志文件大小,但是数据类型是int,我们知道int类型最大值是 2147483647,而如果totalSize超过了2GB totalSize + size > totalSizeCap
会不成立。。。。
所以一旦totalSizeCap超过2GB,那么就会导致日志清除失效。
这个问题有人反馈过 issue,而logback也在1.2.0版本修复了这个问题,解决方案是修改int为long类型。
但是这个并不适用于线上遇到的情况,因为服务中使用的是1.2.3版本,于是继续查询分析。又发现了一个类似报告,而且报告的版本也是1.2.3
I’m using SizeAndTimeBasedRollingPolicy.
When ‘%i’ file index reaches 999 it stops deleting the old files and totalSizeCap is not respected any more.
This soon leads to disk full issues (as logging in my case was fast enough)
这个问题有点相似了,看一下生产环境的日志文件,前几天都是只保留了后缀1000以上的,当天的保留了700以上的,也就是删除了一部分,后面未删除,而且感觉和这个999又很大关系,这个issue里面没有相关回复,那我们自己一边查看源码一般继续Google吧,上面的源码我们已经看到是日志大小回滚的实现,File[] matchingFileArray = getFilesInPeriod(date)
,这一步应该是获取相关的文件数组,我们进去继续查看
1 | protected File[] getFilesInPeriod(Date dateOfPeriodToClean) { |
上面这一块的逻辑是生成一个正则去和日志目录下的日志匹配获取日志文件,下面的代码就是具体拼接正则的实现1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23/**
* Given date, convert this instance to a regular expression.
*
* Used to compute sub-regex when the pattern has both %d and %i, and the
* date is known.
*
* @param date - known date
*/
public String toRegexForFixedDate(Date date) {
StringBuilder buf = new StringBuilder();
Converter<Object> p = headTokenConverter;
while (p != null) {
if (p instanceof LiteralConverter) {
buf.append(p.convert(null));
} else if (p instanceof IntegerTokenConverter) {
buf.append("(\\d{1,3})");
} else if (p instanceof DateTokenConverter) {
buf.append(p.convert(date));
}
p = p.getNext();
}
return buf.toString();
}
看到这一块果然发现一个问题buf.append("(\\d{1,3})")
,这个正则是匹配1位到3位的数字,这不刚好,只能识别日志文件后缀1-999,999以上就无法匹配了。
同样我们也找到了相关的issue
I found cause.
Check the toRegexForFixedDate() method in ch.qos.logback.core.rolling.helper.FileNamePattern.java
Regular expression hardcoded like this:
buf.append(“(\ \d{1,3})”);
So, files indexed more than 3-digit number are not visible to delete…
I don’t know why the expression hardcoded.
Anyway, you’d better modify the source.
有人提到了现在已经修复
this issue fixed in 1.3.0-alpha1
果然这里存在问题,1.3.0-alpha1版本修复这个
但是为什么出现了前几天日志文件保留了后缀999以上,当天存在部分低于999的呢?其实这个也很好理解,还是上面源码,先正则匹配到文件之后循环累加大小,maxFileSize =20MB,totalSizeCap =5GB= 5120MB,等于256个文件,256不能被999整除,还会剩余231,也就是说第一天清理了768个文件后,剩余 231 * 20MB<5120MB ,所以不会清理掉,第二天才会继续累加这部分,然后删除上一天剩余的后缀小于1000的日志文件,这样就导致每天可能剩余一定量的后缀小于1000的日志文件,直到第二天被清理,这和我们的实际情况是相符的。
顺便吐槽一下,从GitHub的文件history来看,2012年作者已经改过一次这个正则了,把d{1,2}改成 d{1,3} ,真是醉了┑( ̄Д  ̄)┍
问题解决:
问题已经找出,那么解决就很简单,升级logback版本就行,当然我觉得首先这个日志打印问题就很大,一天打印上千个日志文件,大小几十G,这根本没有日志的意义了,纯属浪费资源。
参考📚:
https://tidyko.com/posts/589711b0.html
https://jira.qos.ch/browse/LOGBACK-1500
https://jira.qos.ch/browse/LOGBACK-1297