用 gob 替换默认 JSON 编码器可提升吞吐量 2–4 倍,需服务端显式注册并使用 ServeCodec,客户端配 gob 编解码器,结构体须导出且定义一致;RPC 方法中禁用阻塞操作,须用 context 控制超时;连接应复用而非频繁 Dial;长期演进推荐迁移到 gRPC。
gob 替换默认 JSON 编码器能显著提升吞吐量
net/rpc 默认使用 jsonrpc,但 json 序列化/反序列化开销大、不支持私有字段、无类型信息,对高频 RPC 场景是明显瓶颈。改用 Go 原生的 gob 编码器后,实测 QPS 可提升 2–4 倍(取决于 payload 大小和结构嵌套深度)。
关键点:
rpc.RegisterName 并搭配 rpc.NewServer() + server.RegisterName,再用 http.Serve 或 listener.Accept 手动处理连接rpc.DialHTTP 或 rpc.Dial 并传入自定义 ClientCodec,例如 gob.NewDecoder/gob.NewEncoder 包装的连接gob 要求结构体字段首字母大写(导出),且服务端与客户端 struct 定义必须完全一致(包括字段顺序、tag、嵌套层级),否则解码失败静默丢包func main() {
server := rpc.NewServer()
server.RegisterName("Arith", new(Arith))
listener, _ := net.Listen("tcp", ":1234")
for {
conn, _ := listener.Accept()
// 使用 gob 编解码
go server.ServeCodec(gob.NewGobServerCodec(conn))
}
}
RPC 方法体本质运行在服务端 goroutine 中,若内部调用 time.Sleep、同步数据库查询、未加 context 控制的 HTTP 调用等,会直接卡住该连接对应的 handler goroutine,导致并发能力断崖下降。
正确做法:
context.Context,并设超时(如 ctx, cancel := context.WithTimeout(r.Context(), 500*time.Millisecond))sql.DB),禁用 database/sql 的单连接模式go heavyWork()),除非明确 spawn 后立即返回且结果通过回调或 channel 异步通知net/rpc 上硬扛net/rpc 连接复用比频繁 Dial 更关键每次 rpc.Dial 都新建 TCP 连接,三次握手 + TLS 握手(如果启用)+ 连接池初始化,延迟高且资源浪费。实测连续 100 次 Dial 耗时可能超过一次复用连接下 100 次调用总和。
建议方式:
*rpc.Client 实例(它本身是线程安全的)defer client.Close() —— 这会导致连接被立即关掉sync.Pool 管理 *rpc.Client,但注意 Pool 中对象不可保证存活,仍需检查 client == nil || client.Closed()
http.Server.ReadTimeout 或底层 net.Conn.SetReadDeadline 控制,客户端无需主动探测gRPC 替代 net/rpc 是更彻底的优化路径原生 net/rpc 缺少拦截器、负载均衡、健康检查、流控、指标暴露等现代 RPC 必备能力,且协议扩展性差。当业务规模增长、需跨语言互通或接入服务网格时,net/rpc 会迅速成为技术债中心。
迁移要点:
.proto 定义 service 和 message,生成 Go 代码后,server 实现 xxxServer 接口,client 用 xxxClient
Protocol Buffer 编码,体积比 JSON 小 3–5 倍,解析快 2–6 倍;启用 gzip 压缩可进一步降低带宽占用WithBlock() + WithTimeout() 控制连接建立阶段,否则 grpc.Dial 可能无限等待 DNS 解析或后端就绪grpc.StatsHandler 和 otelgrpc,可观测性缺失会让性能问题排查变成盲人摸象真正卡点往往不在编码格式或连接复用,而在于调用链路中某一级没设超时、某次反序列化 panic 后没 recover 导致 goroutine 泄漏、或者 protobuf message 字段类型误用(如用 int32 传时间戳导致溢出)。这些细节比选型更决定最终稳定性。