核心是控节奏+缓存+异步落盘,而非堆goroutine;日志先入内存队列(如带缓冲channel或ring buffer),采集、缓冲、序列化、写入四步解耦,避免同步写磁盘阻塞。
用 Golang 做高并发日志处理,核心不是“堆 goroutine”,而是“控节奏 + 缓存 + 异步落盘”。关键在把日志采集、缓冲、序列化、写入这四步拆开,让它们不互相卡死。
同步写磁盘是最大瓶颈。应该用 channel 或 ring buffer(如 github.com/Workiva/go-datastructures) 做无锁缓冲区,接收端(业务代码)只管发,不等写完。比如:
logCh = make(chan *LogEntry, 10000)
logCh ,几乎零延迟
光靠 channel 不够,得防突发打爆内存或 IO。消费逻辑里加三道保险:
tim
e.Ticker 或令牌桶(如 golang.org/x/time/rate)限制最大写入速率高频日志下,fmt.Sprintf 和 map 序列化最伤性能。建议:
buf := make([]byte, 0, 256),再用 buf = append(buf, ...)
json.Marshal 比 logrus 等通用库快 2~3 倍;字段多变就用 easyjson 生成静态 marshalersync.Pool{New: func() interface{} { return &LogEntry{} }}
大日志文件会拖慢写入和后续分析。需自动轮转:
os.Rename 原子切换fsnotify 监听日志目录,配合定时器做清理(如保留最近 7 天)基本上就这些。Golang 的并发模型天然适合这种“生产-缓冲-消费”链路,重点不在并发数多,而在各环节不相互等待、不突增压力、不意外崩溃。队列长度、批大小、goroutine 数量,都要结合实际 QPS 和机器配置调优,上线前用 go tool pprof 看 CPU 和 heap 分布,比硬背参数管用。