核心是打通“应用输出→容器捕获→实时解析→问题定位”链路:应用用zap/slog输出带service.name、trace_id等字段的JSON日志,敏感信息过滤;Docker/K8s原生采集stdout/stderr;结合Loki/ELK实现结构化查询与上下文回溯。
直接用 Golang 实时分析容器日志,核心不是“自己写解析器”,而是让日志可采集、可结构化、可关联上下文。重点在于打通“应用输出 → 容器捕获 → 实时解析 → 问题定位”这条链路。
避免用 fmt.Println 或原始 log.Printf 打印非结构化文本。改用 zap 或 slog(Go 1.21+)输出 JSON 日志,并注入关键字段:
service.name、service.version、pod.name(从环境变量读取 HOSTNAME)、trace_id(若集成 OpenTelemetry)user_id、request_id、status_code、duration_ms
Core 层或中间件中拦截含 password、token、auth 等关键词的键值对不建议在容器内轮询日志文件或自己 tail stdout —— 这既冗余又不可靠。应交由平台层统一处理:
--log-driver=fluentd 或 --log-driver=json-file 配合 --log-opt max-size=10m --log-opt max-file=3 控制磁盘占用/dev/stdout 对应的伪文件,或直接采集 stdout/stderr 流;避免应用写文件再被采集os.Stdout 和 os.Stderr,不写本地路径结构化日志本身已大幅降低排查成本。真正提速的是结合工具链做「条件过滤 + 上下文回溯」:
立即学习“go语言免费学习笔记(深入)”;
{job="golang-app"} |~ "error|panic" | json | status_code == 500,秒级返回带完整上下文的错误日志trace_id 字段索引后,输入一个 trace_id 即可查出该请求全链路所有服务日志"level":"error" 并聚合 msg 字段前 50 字符,每 10 秒输出 TOP5 错误摘要上线前用几条命令确认日志链路通不通:
docker logs -n 5 your-container:看是否输出 JSON,有无缺失字段kubectl logs -n your-ns your-pod --since=30s | head -n 3:确认 K8s 能实时拿到最新日志{namespace
="your-ns", pod=~"your-pod.*"} | line_format "{{.msg}}" | __error__ = "",检查是否能实时刷出新日志行