容器中 runtime.GOMAXPROCS 易设错,因 Go 默认读宿主机 CPU 数而非容器限制值,导致线程过多、调度开销大、GC 停顿长;应通过 cgroup 或 GOMAXPROCS 环境变量显式设置为容器实际 CPU 配额。
runtime.GOMAXPROCS 在容器里经常被设错Go 程序在 Docker 容器中默认会读取宿主机的 CPU 核心数来设置 GOMAXPROCS,而不是容器实际能用的 CPU 资源。比如宿主机有 32 核,但容器只限制了 --cpus=2,Go 仍可能启动 32 个 OS 线程,导致调度开销增大、GC 停顿变长、并发效率反降。
实操建议:
GOMAXPROCS:在 main() 开头调用 runtime.GOMAXPROCS(runtime.NumCPU()) 不够安全,应改用 runtime.GOMAXPROCS(int(numCPUs)),其中 numCPUs 从 /sys/fs/cgroup/cpu/cpu.cfs_quota_us 和 /sys/fs/cgroup/cpu/cpu.cfs_period_us 计算(Docker 旧版 cgroup v1)或 /sys/fs/cgroup/cpu.max(cgroup v2)GOMAXPROCS=2,Go 1.19+ 会自动识别并生效runtime.GOMAXPROCS(0),值应与容器 CPU limit 一致Go 的 GC 触发阈值(GOGC)默认基于堆增长比例,不感知容器内存限制。当容器设了 --memory=512m,但 Go 程序持续分配到 400MB 就可能因 OOM 被 kill,而 GC 还没触发——因为堆还没“翻倍”。
实操建议:
GOMEMLIMIT:例如 GOMEMLIMIT=400MiB,Go 1.19+ 会主动控制堆大小,避免触达 cgroup limit 导致 OOM killGOGC 调低(如 GOGC=20),它无法防止突发分配打爆内存;GOMEMLIMIT 是更直接的兜底机制go tool trace 中的 heap goal 曲线,或通过 debug.ReadGCStats 查看 HeapGoal 是否稳定在预期范围内net/http DNS 解析慢且偶发超时很多 Go 服务用 golang:alpine 构建镜像,但 Alpine 使用 musl libc,其 getaddrinfo 默认不支持并行解析,且对 /etc/resolv.conf 中多个 nameserver 的 fallback 行为与 glibc 不同,容易造成 HTTP 请求卡在 DNS 阶段。
实操建议:
golang:slim(deb-based,glibc)或官方推荐的 gcr.io/distroless/static(无 libc 依赖,需静态编译)-tags netgo 强制使用 Go 自带 DNS 解析器(纯 Go 实现,支持并发 + timeout 控制)http.DefaultClient.Transport 的 DialContext,设置 Resolver 并指定超时,避免依赖系统解析逻辑docker build 多阶段构建未清理 CGO_ENABLED=1 的中间产物常见写法是在 builder 阶段启用 CGO_ENABLED=1 编译 C 依赖(如 SQLite、OpenSSL),但 final 阶段若未显式关闭,Go 仍可能动态链接 libc,导致镜像体积膨胀、启动变慢,甚至在 distroless 镜像中 panic。
实操建议:
CGO_ENABLED=0,再用 go build -a -ldflags '-s -w' 静态编译file your-binary 应显示 “statically linked”;ldd your-binary 应报 “not a dynamic executable”net 包的系统 DNS),则 final 阶段至少要带 libc6(如 debian:slim),不能用 distroless最易被忽略的是:性能问题往往不是单点造成的,而是 GOMAXPROCS、GOMEMLIMIT、DN
