真正稳定的爬虫需分层容错:请求层用tenacity实现指数退避重试,解析层用select_one和兜底逻辑防结构变化,调度层通过状态队列实现失败隔离与断点恢复。
爬虫运行中遇到网络抖动、目标服务器限流、超时或页面结构突变很常见,靠简单 try-except 捕获异常远远不够。真正稳定的爬虫需要分层容错:在请求层控制重试逻辑,在解析层防御结构变化,在调度层避免雪崩式失败。
盲目重试会加重服务器压力,也可能触发风控。应使用指数退避(exponential backoff)+ 最大重试次数 + 随机抖动。推荐用 tenacity 库替代手写循环:
pip install tenacity
RetryError、Timeout、HTTP 5xx)、等待时间(wait_exponential(multiplier=1, min=1, max=10))和最大次数(stop_after_attempt(3))网页改版是爬虫失效主因。不要假设 select 一定存在:
('div.content > p')[0].text
.select_one() 替代 .select(),避免索引越界;用 .get_text(strip=True) or '' 替代直接调用 .text
批量任务中单个 URL 失败不应阻塞全局进度:
url、status(pending/running/success/failed)、fail_count、last_updated
fail_count 并延后重试时间(如 30 分钟后),避免反复冲击同一链接status=failed AND fail_count 的链接重试,实现故障自愈
稳定不是“不出错”,而是“错得明白、修得及时”:
X-RateLimit-Remaining)、异常类型、traceback 截断前 200 字符