SQL实时统计需协同数据流、状态维护与窗口计算,非简单SELECT;“实时”指亚秒至分钟级低延迟;窗口是逻辑切片机制,状态是累计记忆体,须配水位线、窗口字段及upsert目标表。
SQL实时统计不是“写个SELECT就完事”,核心在于数据流、状态维护和窗口计算三者协同。传统批处理SQL按固定数据集算一次,而实时统计要持续响应新到来的每一条数据,并在合理时间范围内给出准确结果。理解这几个关键概念,设计才不会走偏。
实时 ≠ 毫秒级响应。工程中常见的“实时”其实是亚秒到分钟级延迟(low-latency)的持续计算。比如用户行为看板更新延迟3秒可接受,但订单对账必须准且不能丢数据。关键看业务容忍度——是追求快,还是追求准,或是两者都要?这直接决定技术选型:
窗口本质是对无界数据流做有界切片的逻辑机制,不是简单按钟表时间切。常见类型背后逻辑不同:
注意:窗口触发时机受事件时间(event time)、处理时间(processing time)和水位线(watermark)共同影响。用错时间语义,统计结果就会“看起来对、实际错”。
没有状态,就只能算当前这一条;有了状态,才能累计、去重、排序、关联。比如“每个用户今天点击次数”,必须记住用户ID和计数——这个键值对就是状态。
很多同学写了个INSERT INTO ... SELECT ... FROM kafka_table GROUP BY TUMBLING... 就以为是实时了。其实还要确认:
t或changelog语义?只支持追加写入(append-only)的目标(如普通Kafka Topic),无法更新“过去某窗口的统计值”基本上就这些。把流、窗、态、时四者串起来想,SQL实时统计就从“玄学”变成“可推演、可调试、可优化”的工程实践。