Go应用自身不支持自动扩缩容,需依赖Kubernetes HPA;必须实现readiness/liveness探针、优雅关闭(srv.Shutdown)、暴露Prometheus指标,并避免goroutine泄漏与阻塞。
Go 本身不提供集群级自动扩缩容功能。你在 Go 应用里写的 http.Server 或 gin.Engine 只负责处理请求,扩容缩容由运行环境(通常是 Kubernetes)控制。关键在于:Go 应用需要暴露可被 HPA 采集的指标,并能健康响应副本增减。
Kubernetes 缩容 Pod 前会先调用 readinessProbe,确认该实例已停止接收新流量。如果 Go 服务没实现优雅退出或探针返回失败,K8s 可能在请求处理中就终止进程,导致 502/504 或数据丢失。
http.ServeMux 或 gin.Engine 暴露 /healthz(liveness)和 /readyz(readiness)端点,返回 200 即可os.Interrupt 或 syscall.SIGTERM 信号到来时,调用 srv.Shutdown(),等待正在处理的 HTTP 请求完成main() 末尾直接 os.Exit(),这会跳过 Shutdown
srv := &http.Server{Addr: ":8080", Handler: mux}
go func() {
if err := srv.ListenAndServe(); err != http.ErrServerClosed {
log.Fatal(err)
}
}()
sig := make(chan os.Signal, 1)
signal.Notify(sig, syscall.SIGINT, syscall.SIGTERM)
默认 HPA 只支持 cpu 和 memory 这两类资源指标。如果你希望按每秒请求数(QPS)或 Kafka 消费延迟来扩容,就必须引入 custom-metrics-apiserver + prometheus-adapter,并在 Go 应用中暴露 Prometheus 格式指标。
prometheus/client_golang 注册 http_requests_total、queue_length 等指标
TP 路由中挂载 promhttp.Handler() 到 /metrics
metrics 类型为 Pods 或 Object,并引用对应指标名Go 应用若存在 goroutine 泄漏(比如未关闭的 time.Ticker、忘记 close(ch) 的 channel)、或大量阻塞在锁/DB 查询上,会导致 CPU 持续偏高,HPA 可能误判为“需要扩容”,而实际是代码缺陷。
立即学习“go语言免费学习笔记(深入)”;
runtime.NumGoroutine() + /debug/pprof/goroutine?debug=2 定期检查异常增长db.SetMaxOpenConns)和 HTTP 客户端超时(http.Client.Timeout)必须显式设置,否则一个慢请求可能拖垮整个 Pod真正决定是否扩容的,从来不是语言,而是你有没有把 Go 的并发特性用对、用稳、用透明。指标不准、探针失灵、goroutine 堆积——这些才是云原生环境下 Go 服务扩不起来、缩不下去的常见根因。