Go网络并发优化核心是高效利用goroutine、channel与I/O模型,重在减少阻塞与竞争:善用http.Server内置协程、context超时控制、缓冲区复用、sync.Pool对象池及原子操作或分片map降低锁争用。
Go语言天生适合网络并发编程,核心在于合理利用goroutine、channel和底层I/O模型,而不是盲目增加并发数。关键不是“怎么开更多协程”,而是“让每个协程更高效、更少阻塞、更少竞争”。
HTTP服务中,很多人习惯在Handler里起goroutine处理耗时逻辑,但容易失控。其实http.Server默认已为每个请求启动独立goroutine,且自带连接复用、超时控制和上下文传递能力。
req.Context()做超时与取消,避免协程泄漏ctx.Done()提前退出go func(){}()无约束启协程;如需异步,用带缓冲的channel或worker pool限流高频小包传输(如API响应、文件上传)中,频繁分配[]byte会触发GC压力。net/http和net.Conn都支持复用缓冲区。
io.CopyBuffer(dst, src, make([]byte, 32*1024))显式指定缓冲区大小http.Transport时,设置MaxIdleConnsPerHost和IdleConnTimeout复用TCP连接req.Body = http.MaxBytesReader(w, req.Body, maxBodySize)防内存爆涨如JSON解析中的*json.Decoder、自定义协议包结构体、临时切片等,可显著降低GC频率。
var decoderPool = sync.Pool{New: func() interface{} { return json.NewDecoder(nil) }}
d := decoderPool.Get().(*json.Decoder); d.Reset(r); err := d.Decode(&v)
decoderPool.Put(d)(注意不要在闭包中捕获并长期持有)高频计数(如QPS统计)、连接状态管理等场景,sync.Mutex易成瓶颈。
atomic.Int64或atomic.AddUint64
map存连接信息时,用分片策略:type ShardedMap struct { mu [16]sync.RWMutex m [16]map[string]*Conn },key哈希后选分片sync.Pool比手写锁+map更轻量且安全基本上就这些。Golang并发优化不靠炫技,而在于理解运行时行为——什么时候该复用,什么时候该释放,什么时候该分流,什么时候该放弃。代码越简单,runtime越能帮你扛住压力。