Go可用HTTP接口轻量埋点,用io.Discard限流、json.RawMessage延迟解析、滚动窗口+sync.Map聚合;SQLite归档需WAL模式、事务批量写、按天分区;时间戳须用UnixMilli()保毫秒序;sync.Pool缓存bytes.Buffer提升JSON编码性能。
Go 适合做高并发行为采集服务,但直接上 Kafka + Flink 过重;多数中小项目只需要 HTTP 接口接收日志 + 定时落盘 + 简单维度聚合。核心是避免内存泄漏和写放大。
net/http 处理埋点请求时,务必用 io.Discard 或 io.CopyN(ioutil.Discard, r.Body, 1024) 限制读取长度,否则恶意大 body 会耗尽连接和内存struct{ Ts int64; UID string; Event string; Props map[string]string } 建模,Props 用 json.RawMessage 延迟解析,避免每次 decode 全字段"20250520_1432" 为 key),每个分片用 sync.Map 存 map[string]int64(key 是 UID:Event 或 Event:Country)SQLite 不适合高并发写,但作为本地归档库足够;关键是绕过逐条 INSERT 的开销,且防止 WAL 文件堆积。
database/sql 时,显式调用 db.Exec("PRAGMA journal_mode = WAL") 和 db.Exec("PRAGMA synchronous = NORMAL")
tx, _ := db.Begin()
stmt, _ := tx.Prepare("INSERT INTO events(ts, uid, event) VALUES(?, ?, ?)")
for _, e := range batch {
stmt.Exec(e.Ts, e.UID, e.Event)
}
tx.Commit()events_20250520
CREATE TABLE ... AS SELECT 快速迁移旧数据用户行为序列依赖毫秒级顺序,尤其在单机多协程或压测场景下,秒级精度会导致同秒内事件乱序、去重失败、漏统计。
time.Now().Unix() 返回秒数,同一秒内所有行为在排序/窗口切分时无法区分先后time.Now().UnixMilli()(Go 1.17+)提供毫秒精度,且无浮点误差;低于 1.17 可用 t.Unix()*1e3 + int64(t.Nanosecond()/1e6)
INTEGER 类型而非 TEXT,避免后续 WHERE ts BETWEEN ? AND ? 查询失效实测在 10K QPS 行为上报场景下,复用 json.Encoder 可降低 GC 压力约 35%,但 Pool 本身有管理开销,需权衡。
*json.Encoder,而应缓存底层 bytes.Buffer(因为 Encoder 绑定 buffer 后不可复用)var bufPool = sync.Pool{
New: func() interface{} { return new(bytes.Buffer) },
}
buf := bufPool.Get().(*bytes.Buffer)
buf.Reset()
enc := json.NewEncoder(buf)
enc.Encode(event)
// ... use buf.Bytes()
bufPool.Put(buf)MarshalJSON() 方法,比反射快 3–5 倍真正难的是维度爆炸——当 Props 动态键超过 50 种,聚合查询会从 O(1) 退化到全表扫描。这时候就得切出去用 ClickHouse,而不是硬撑。