Scrapy分布式核心是将调度器和去重器迁移至Redis实现共享队列与全局去重;需替换Scheduler和DupeFilter为Redis版,常用scrapy-redis库,配置SCHEDULER、DUPEFILTER_CLASS及REDIS_URL,并通过LPUSH推送起始URL。
Scrapy本身是单机爬虫框架,不支持原生分布式。要实现分布式,核心思路是把调度器(Scheduler)从内存移到Redis中,让多个Scrapy实例共享同一套待抓取队列和去重集合。Redis作为中间件,承担URL去重(Set)、任务分发(Queue或Priority Queue)、以及状态同步(如已爬URL、请求指纹)的功能。所有爬虫节点都连接同一个Redis服务,各自从队列取任务、将新链接推入队列、并用全局去重集合过滤重复请求。
默认Scrapy使用内存型调度器和RFPDupeFilter,必须替换为Redis支持的版本:
scrapy.core.scheduler.Scheduler,底层用redis.StrictRedis操作List(FIFO/LIFO)或ZSet(优先级队列),重写next_request()和enqueue_request()
scrapy.dupefilters.RFPDupeFilter,将request_fingerprint存入Redis Set,request_seen()改查Redis而非本地集合scrapy-redis,它已封装好上述逻辑,只需配置类路径即可启用典型部署包含一个Redis服务器 + 多台运行Scrapy的Worker机器(可同机多进程,也可跨主机):
settings.py中启用scrapy_redis组件:start_urls,而是通过redis-cli或脚本推入Redis:REDIS_KEY前缀(如myspider:requests),确保读写同一队列
爬与监控实践Redis天然支持断点续爬——只要队列和去重集合未清空,重启任意Worker都能继续工作:
request_fingerprint决定,默认包含URL、method、body、headers等;若需忽略某些参数(如时间戳),需重写request_fingerprint函数redis-cli实时查看队列长度: