直接用 set 存 URL 易致内存爆炸、无法持久化、不支持分布式,Bloom Filter 以可控误判率实现百倍空间压缩,支持序列化与多进程/分布式复用,是爬虫去重的架构刚需。
set 存 URL 在爬虫里容易崩内存爆炸是第一个信号:当爬取百万级 URL 时,set 存的是完整字符串,每个 URL 平均占 50–100 字节,千万级就轻松吃掉 1GB+ 内存;第二个问题是进程重启后清空,无法跨运行持久去重;第三个是分布式场景下,set 根本不共享。这些都不是“优化问题”,而是架构瓶颈。
这时候 Bloom Filter 不是“锦上添花”,而是刚需——它用固定内存(比如 100MB)就能支撑上亿次判重,且支持序列化保存、多进程复用、甚至可嵌入 Redis。
set 判重:精确但重,O(1) 时间但 O(N) 空间0.1% 可控),但空间压缩百倍,支持持久化别直接手写,优先用成熟封装。主流三个库行为差异明显:
pybloom_live:纯 Python,支持动态扩容,BloomFilter 类可直接 pickle 序列化,适合单机多进程共享同一个 filter 文件redisbloom:需要 Redis 服务,用 BF.ADD/BF.EXISTS,天然支持分布式,但网络 IO 成为瓶颈点mmh3 + bitarray 手动组合:最轻量,可控性最强,但得自己管理容量和哈希次数,新手易设错 capacity 和 error_rate
单机中等规模(日抓 500 万内),推荐 pybloom_live;明确要多机器协同,且已有 Redis,用 redisbloom;追求极致性能且能压测调参,才上手动方案。
两个参数决定一切:capacity(预估最大元素数)和 error_rate(允许的假阳性率)。设错会导致要么内存浪费,要么误判飙升。
capacity 必须 ≥ 预期去重 URL 总数;设小了,插入后期假阳性率会指数上升,不是线性增长error_rate 建议从 0.01(1%)起步,实测发现 0.001(0.1%)对 1000 万 URL 也够用,再低就显著涨内存pybloom_live 初始化应写:from pybloom_live import BloomFilter
bf = BloomFilter(capacity=8_000_000, error_rate=0.001)
必须做。原始 URL 看似不同,实际可能指向同一页面:https://example.com/?a=1&b=2 和 https://example.com/?b=2&a=1、带尾部斜杠与不带、大小写混用(部分服务器不区分)、# 锚点等。Bloom Filter 对字节敏感,不做归一化等于白加。
# 及之后内容、对 query string 按 key 排序并 urlencodeurllib.parse 拆解再重组,别用正则硬切from urllib.parse import urlparse, urlunparse, parse_qsl, urlencode
def normalize_url(url):
parsed = urlparse(url)
query = urlencode(sorted(parse_qsl(parsed.query)))
normalized = urlunparse((parsed.scheme, parsed.netloc.lower(),
parsed.path, parsed.params, query, ''))
return normalized.lower()
漏掉标准化,Bloom Filter 的内存省得再漂亮,去重效果也接近随机。