sync.RWMutex 仅在读多写少(写

sync.RWMutex 替代 sync.Mutex 前先确认读写比例读多写少是 sync.RWMutex 发挥优势的前提。如果写操作占比超过 15%~20%,它反而可能比 sync.Mutex 更慢——因为读锁的升级/降级开销、goroutine 唤醒调度成本会上升。
实操建议:
pprof 的 mutex profile(go tool pprof http://localhost:6060/debug/pprof/mutex)看锁等待总时长和争用次数,再结合日志统计读写频次RWMutex;但若写操作常伴随批量更新或条件重置(比如定时刷新 token map),sync.Map 或分片锁更稳妥RWMutex 的 RLock 不可嵌套,且不能在持有 RLock 时调用 Lock(会死锁),必须显式 RUnlock 后再 Lock
这是锁竞争恶化最常见原因:一个 goroutine 持有锁执行 HTTP 请求或 JSON 解析,其他 goroutine 全部排队阻塞。
实操建议:
map,而不是加锁后才发起查询select 发送信号当热点数据是大容量 map 或 slice,且 key 可哈希时,用分片锁能将锁竞争分散到多个 sync.Mutex 实例上,吞吐量常提升 3–10 倍。
实操示例(简易分片 map):
type ShardedMap struct {
mu [32]*sync.Mutex
data [32]map[string]int
}
func (m *ShardedMap) Get(key string) int {
idx := int(uint32(hash(key)) % 32)
m.mu[idx].Lock()
defer m.mu[idx].Unlock()
return m.data[idx][key]
}
注意点:
fnv 或 xxhash 比 string 直接取模更稳sync.Map + 迭代器sync.Map 不是万能替代,它只适合特定读写模式sync.Map 对“一次写、多次读”的场景做了优化(读走无锁 fast path),但写操作代价高、不支持遍历、无 CAS 原语,且 key 类型必须是可比较的(不能是 slice/map/func)。
适用边界很明确:
map[string]*User 类型的注册表,用户上线写一次、后续大量读取[]byte 等不可比较类型sync.Map.LoadOrStore 在 key 不存在时才写,看似原子,但内部仍可能触发内存分配和锁,高并发下不如预分配 + 分片锁稳定