应对网站反爬需模拟真实浏览器行为:伪造User-Agent等请求头、用Session管理会话、控制请求频率并添加随机延时、针对JS渲染内容分析接口或逆向参数,复杂场景考虑Playwright/Selenium。
面对网站反爬机制,单纯用 requests.get() 很难稳定获取数据。关键不是“绕过”,而是让请求更像真实浏览器行为——从请求头、会话管理、频率控制到动态内容处理,每一步都需模拟到位。
多数网站通过 User-Agent 判断请求来源。默认的 requests UA(如 python-requests/2.xx)极易被识别为爬虫。
fake-useragent 库(注意其已停止维护,推荐改用 user_agent 或预置列表)Accept、Accept-Language、Referer、Sec-Ch-Ua 等,缺失可能触发 403登录型站点或需 Cookie 传递的页面,必须用 requests.Session() 而非单次请求。Session 自动管理 Cookie、复用连接,还能继承 headers 设置。
requests.adapters.HTTPAdapter 可设置重试策略,提升稳定性
率与添加随机延时高频请求是反爬最敏感信号之一。即使 headers 完美,短时间密集访问仍会被限流或封 IP。
time.sleep(random.uniform(1, 3)),避免固定间隔X-RateLimit-Limit),尊重合理限制当页面内容由 JS 异步加载(如 axios 请求接口)、或 URL/headers 中含时间戳、加密签名等动态字段时,requests 无法直接解析。