应全局复用 http.Client 实例并显式配置 Transport,调大 MaxIdleConns 和 MaxIdleConnsPerHost,始终关闭 resp.Body,使用 context 控制超时与取消,必要时禁用 HTTP/2 或调整 TLS 版本。
http.Client 而不是每次新建频繁创建 http.Client 实例会导致大量空闲连接无法复用,同时触发不必要的 TLS 握手和 DNS 查询。Go 的 http.DefaultClient 本身已做了基础复用,但自定义 http.Client 更可控。
关键在于复用底层的 http.Transport,它管理连接池、Keep-Alive、Idle 连接等。默认的 http.Transport 对每个 host 最多保持 2 个空闲连接(MaxIdleConnsPerHost: 2),这在高并发场景下明显不够。
实操建议:
http.Client 实例,例如定义为包级变量或通过依赖注入传递Transport,调大连接池参数,例如:client := &http.Client{
Transport: &http.Transport{
MaxIdleConns: 100,
MaxIdleConnsPerHost: 100,
IdleConnTimeout: 30 * time.Second,
TLSHandshakeTimeout: 10 * time.Second,
},
}Close: true 或手动调用 resp.Body.Close() 后忽略错误——未关闭 Body 会阻塞连接回收resp.Body 防止连接泄漏不读取或不关闭 resp.Body 是导致连接池耗尽的最常见原因。即使你只关心状态码,也必须显式关闭;否则该 TCP 连接将一直挂在 Idle 状态,直到超时。
常见错误现象:请求逐渐变慢、出现 net/http: request canceled (Client.Timeout exceeded while awaiting headers) 或 dial tcp: lookup failed(DNS 被压垮)。
实操建议:
defer resp.Body.Close(),且确保在 resp 非 nil 时才调用io.Copy(io.Discard, resp.Body) 或 io.ReadAll(resp.Body) 再关闭,不能跳过读取HTTP/2 默认启用(Go 1.6+),虽提升复用效率,但在某些代理环境或老旧服务端可能引发握手失败、HEADERS 帧阻塞等问题;而默认 TLS 配置(如 MinVersion: tls.VersionTLS12)也可能增加协商时间。
性能影响取决于目标服务端兼容性与网络路径。本地测试发现:部分内网 HTTP/1.1 服务开启 HTTP/2 后,首字节延迟反而上升 10–20ms(因 ALPN 协商

实操建议:
transport := &http.Transport{
ForceAttemptHTTP2: false,
// 其他配置...
}MinVersion: tls.VersionTLS13,但注意 Go 1.19+ 才默认支持 TLS 1.3 完整特性InsecureSkipVerify: true ——它绕过证书校验但不减少 RTT,仅用于测试,生产环境必须保留校验不带上下文的请求(如 client.Get(url))在超时时无法主动中断底层连接,goroutine 可能长期等待,尤其在 DNS 解析失败或服务端无响应时。
典型表现:pprof 查看 runtime.goroutines 持续增长,net/http.(*persistConn).readLoop 占比异常高。
实操建议:
client.Do(req.WithContext(ctx)),而非 client.Get/client.Post 等快捷方法ctx, cancel := context.WithTimeout(context.Background(), 5*time.Second) defer cancel() req, _ := http.NewRequestWithContext(ctx, "GET", url, nil) resp, err := client.Do(req)
context.WithCancel + 主动 cancel 控制整体生命周期,避免单个失败请求拖垮整批真正卡住性能的往往不是单次请求的代码写法,而是连接复用策略、Body 生命周期管理和上下文传播这三个环节的组合问题。调小 MaxIdleConnsPerHost 或漏关 Body,可能在 QPS 上千时才暴露;而这些细节,在压测前很难被日志或监控直接指出。