log/scanner比bufio.Scanner更可靠,能正确处理跨行日志;需预编译正则、流式读取大文件、并发聚合时避免map竞态。
log/scanner 比 bufio.Scanner 更可靠很多日志文件混用空格、制表符、JSON 行、带时间戳的非结构化文本,直接用 bufio.Scanner 按行切分容易在换行符位置出错(比如堆栈跟踪跨多行)。Go 标准库没有内置日志解析器,但 log/scanner(第三方轻量包,非标准库)专为日志行边界识别设计,能自动跳过不完整行、合并续行。
go get github.com/mozillazg/go-log-scanner
"2025-01-01T12:00:00Z ERROR failed to connect: dial timeout\n\tat db.go:42" 当作单条日志,而非两行^\d{4}-\d{2}-\d{2} 开头的行,但维护成本高regexp.MustCompile 预编译正则,避免在循环里重复编译分析每行日志时若用 regexp.Compile 动态生成正则对象,CPU 会明显抖动——尤其处理 GB 级日志时。必须提前编译好,复用同一实例。
// ✅ 正确:包级变量,启动时编译一次
var logLineRE = regexp.MustCompile(`^(\d{4}-\d{2}-\d{2} \d{2}:\d{2}:\d{2}) (\w+) (.+)$`)
// ❌ 错误:每次调用都重新编译
func parseLine(line string) (time.Time, string, string) {
re := regexp.MustCompile(`...`) // 这里会成为性能瓶颈
// ...
}
runtime.mallocgc 占比飙升go tool pprof 查看 regexp.(*Regexp).doExecute 耗时占比
*regexp.Regexp 并按前缀快速路由ioutil.ReadFile,改用 os.Open + bufio.Reader
ioutil.ReadFile(或 os.ReadFile)会把整个文件读进内存,1GB 日志直接触发 OOM。真实场景下必须流式处理。
lines := strings.Split(string(data), "\n"),看似简洁,实则危险os.Open 打开文件,套一层 bufio.NewReader,再配合 log/scanner 或自定义 ReadLine
\r\n 在 Linux 环境下可能被截断,建议统一用 scanner.Text()(它自动处理换行符归一化)map[string]int 不适合高并发计数如果工具支持多 goroutine 并发解析不同日志段(比如按文件分片),直接用普通 map[string]int 更新错误类型统计会 panic:Go 的 map 默认非并发安全。
sync.Map,但只适合读多写少;频繁写入时性能不如 sync.Mutex + 普通 mapmap[string]int,解析完再用 sync.Mutex 合并到全局结果