Python爬虫需通过预判异常、分层捕获与优雅降级保障稳定性:网络请求异常用tenacity指数退避重试;解析异常优先用.get()和空值校验;反爬响应需限速换UA;Session复用+超时控制提升请求层健壮性;解析采用语义化定位与fallback;全链路埋点监控并自动告警恢复。
Python爬虫运行中遇到异常很常见,关键在于提前预判、合理捕获、优雅降级。稳定不是靠不报错,而是出错后能继续跑、可追溯、不崩。
网络请求类异
常(如requests.exceptions.ConnectionError、Timeout)最频繁,需单独捕获并重试;解析类异常(如KeyError、AttributeError)多因页面结构变动,建议用.get()或getattr()替代直接取值;反爬触发的HTTP 403/429应主动限速+换User-Agent,而非硬等超时。
别只靠requests.Session(),要配合连接池复用、默认超时、重定向控制。Session对象全局复用可减少握手开销,但需注意线程安全——多线程下每个线程应持有独立Session实例。
网页结构随时可能变,硬编码XPath或CSS选择器极易断裂。优先用语义化定位(如含“价格”文字的邻近标签),再 fallback 到备用路径。所有解析结果必须校验非空,空值统一转为None或默认值,不抛异常。
光有异常捕获不够,得知道哪错了、错多少、是否持续发生。在关键节点埋点:请求耗时、状态码分布、解析成功率、重试次数。当日志中连续5次出现同一URL解析失败,自动暂停该站点爬取1小时。