RPC客户端负载均衡核心是智能选节点而非自建服务发现,需支持动态更新、可插拔策略(轮询/随机/最小连接)及失败重试;gRPC推荐用内置balancer机制,net/rpc则需手动封装分发器。
在Go中实现RPC客户端的负载均衡,本质不是自己造轮子去维护服务发现和健康检查,而是让客户端能从多个可用节点中智能选择一个发起请求。关键在于:节点列表动态可更新、选择策略可插拔(如轮询、随机、最小连接)、失败时自动重试或切换节点。
如果你用的是gRPC(Go官方RPC框架),直接利用其内置的resolver和balancer机制是最稳妥的方式。不需要手写分发逻辑,只需注册自定义解析器或选用已支持的策略。
round_robin、weighted_round_robin(v1.60+),启用方式简单:conn, _ := grpc.Dial("my-service",
grpc.WithTransportCredentials(insecure.NewCredentials()),
grpc.WithDefaultServiceConfig(`{"loadBalancingConfig": [{"round_robin": {}}]}`),
)
resolver.Builder,监听服务实例变更并推送新地址列表给gRPC内部负载均衡器。grpc.Dial——每个ClientConn应复用,负载均衡由gRPC底层在SubConn粒度完成。若仍在用标准net/rpc(HTTP或TCP传输),它本身不带负载均衡能力,需在客户端封装一层分发器。
[]string{"10.0.1.10:8080", "10.0.1.11:8080"}),配合健康检查定时更新(例如通过心跳或GET /health探针)。RPCClient结构体,内嵌选择策略(如带原子计数的轮询):type RPCClient struct {
nodes []string
mu sync.RWMutex
cursor uint64 // atomic
}
func (c *RPCClient) nextNode() string {
n := uint64(len(c.nodes))
if n == 0 {
return ""
}
idx := atomic.AddUint64(&c.cursor, 1) % n
return c.nodes[idx]
}
func (c *RPCClient) Call(serviceMethod string, args, reply interface{}) error {
for i := 0; i < len(c.nodes); i++ {
node := c.nextNode()
client, err := rpc.DialHTTP("tcp", node)
if err != nil {
continue // 跳过不可达节点
}
err = client.
Call(serviceMethod, args, reply)
client.Close()
if err == nil {
return nil
}
}
return errors.New("all nodes failed")
}
Call都新建连接开销大,建议复用*rpc.Client并做连接池(如用sync.Pool管理),或改用长连接+重连机制。真实场景中,光选节点不够,还需容错和降级:
context.WithTimeout),避免卡死。sony/gobreaker等库,在连续失败后临时剔除节点。Weight int字段,实现加权随机或加权轮询。