直接用 golang.org/x/time/rate 容易限不住流量,因其默认基于请求到达时间做令牌桶判断,单实例无法感知全局流量,导致多实例下总流量超限;真正可用的限流需跨实例共享状态、支持突发控制、区分调用方或接口粒度。
golang.org/x/time/rate 容易限不住流量因为 rate.Limiter 默认基于「请求到达时间」做令牌桶判断,但微服务中常有并发请求、网络延迟、重试等场景,单实例的 Limiter 无法感知全局流量。比如两个服务实例各自限流 100 QPS,实际总入口可能突增到 200 QPS,后端仍被打垮。
真正可用的限流必须满足:可跨进程/实例共享状态、支持突发流量平滑控制、能区分调用方或接口粒度。
rate.Every(10 * time.Millisecond) 这种写法隐含每秒 100 次,但实际吞吐受处理耗时影响,不是硬 QPS 限制Allow() 放在 handler 最外层——它不阻塞,返回 false 后需主动 return,否则逻辑仍会执行核心是用 Redis 的 INCR + EXPIRE 组合存在竞态,必须用 Lua 脚本保证「计数+过期设置」原子性。Go 侧只需调用 Eval,无需自己加锁或重试。
典型脚本(key 是限流标识,如 "limit:api:/user/profile:192.168.1.100"):
local current= redis.call("INCR", KEYS[1]) if current == 1 then redis.call("EXPIRE", KEYS[1], tonumber(ARGV[1])) end if current > tonumber(ARGV[2]) then return 0 end return 1
KEYS[1] 是限流 key,建议包含服务名、接口路径、客户端 IP 或用户 IDARGV[1] 是窗口秒数(如 60),ARGV[2] 是该窗口内最大请求数(如 1000)redisClient.Eval(ctx, script, []string{key}, windowSec, maxReq).Int()
硬编码每个接口的 maxReq 和 windowSec 不可持续。推荐用配置中心(如 etcd 或 Consul)动态加载规则,并监听变更。
结构示例(YAML):
rules: - path: "/api/v1/order/create" method: "POST" limit: 50 window: 60 by: "client_ip" - path: "/api/v1/user/info" method: "GET" limit: 200 window: 60 by: "user_id"
method:path(如 "GET:/api/v1/user/info")"limit:" + rule.by + ":" + value(value 来自 r.Header.Get("X-User-ID") 或 r.RemoteAddr)记录每次被限流的请求详情(IP、path、UA)看似合理,但高频打日志会显著增加延迟和磁盘 IO。更稳妥的做法是采样记录 + 异步上报。
http.StatusTooManyRequests,body 精简为 JSON:{"error":"rate_limited","retry_after":60}
log.Printf 前加个概率采样:if rand.Intn(100) == 0 { log.Printf("...") }
Counter 上报,不要依赖日志 grep真正难的不是写限流代码,而是确定哪些接口该限、限多少、依据什么数据调整——这些得靠线上监控和业务反馈持续迭代,代码只是执行载体。