应对反爬需分三类策略:请求头模拟(如User-Agent)、IP代理池防封、解析JS渲染接口;数据清洗包括去噪、数值标准化、去重;运维强调异常捕获、日志记录、编码与会话管理。
网站反爬不是铁板一块,多数基于请求特征、行为模式和前端渲染三类逻辑。识别后针对性绕过,比盲目试错更高效。
User-Agent 与请求头模拟:很多站点仅校验基础请求头。用
requests 发送请求时,必须设置真实的 User-Agent、Accept、Referer 等字段。可从浏览器开发者工具的 Network 面板中复制完整请求头,或使用 fake-useragent 库动态生成:
pip install fake-useragent
from fake_useragent import UserAgent; headers = {"User-Agent": UserAgent().random}
UserAgent().random,建议初始化一次复用,防止触发 UA 获取接口限流IP 限制与代理池:单 IP 短时间内大量请求易被封禁。本地调试可用免费代理(如 http://www.89ip.cn/),但稳定性差;生产环境推荐付费代理服务(如芝麻代理、讯代理)或自建私有代理池(结合 Redis + 定时检测)。
proxies = {"http": "http://user:pass@123.45.67.89:8080"}
time.sleep() 或指数退避(如 random.uniform(1, 3)),降低请求密度JavaScript 渲染内容(如 Ajax、Vue/React):若页面关键数据由 JS 动态加载,requests 获取的 HTML 中不包含目标内容。此时需分析 Network 面板,找到真实数据接口(常为 .json 或 api/xxx 路径),直接请求该接口。
立即学习“Python免费学习笔记(深入)”;
Selenium 或 Playwright,但务必禁用图片、关闭日志、启用无头模式以提速爬下来的数据常混杂空格、换行、HTML 标签、乱码、重复项等。清洗不是“删脏数据”,而是按业务规则标准化,确保后续分析或入库可用。
文本清洗:去噪与归一化:针对字符串字段(如标题、简介、价格)。
text.replace('\u200b', '').strip()(零宽空格)、re.sub(r'[\r\n\t]+', ' ', text)
import re; re.sub(r']+>', '', html_str),或更稳妥地用 BeautifulSoup(html_str, 'lxml').get_text()
re.sub(r'\s+', ' ', text)、text.replace(',', ',').replace('。', '.')(视需求决定是否中英文标点转换)数值与日期标准化:价格、评分、时间等字段极易格式混乱。
re.findall(r'[\d.]+', '¥12,999.5万元') → ['12', '999.5'] → float(''.join(...)) * 10000
dateparser 库统一解析:dateparser.parse("昨天") 返回标准 datetime 对象去重与唯一性保障:尤其在增量爬取中,避免重复入库或分析偏差。
seen = set(); if item_id not in seen: seen.add(item_id); yield item
INSERT IGNORE 或 ON DUPLICATE KEY UPDATE;MongoDB 用 update_one(..., upsert=True)
SET,O(1) 判断,且支持跨进程共享写一个能跑通的爬虫容易,写一个能长期运行、易维护、抗变化的爬虫才是进阶核心。
try/except requests.RequestException,记录错误日志而非崩溃退出logging 替代 print,区分 INFO/WARNING/ERROR 级别,便于后期排查assert 'price' in response.text,失败即告警robots.txt,控制并发数(concurrent.futures.ThreadPoolExecutor(max_workers=3)),尊重网站资源很多爬虫中途失效,不是技术卡点,而是栽在细节上。
response.encoding = 'utf-8' 或用 response.content.decode('utf-8')
session = requests.Session(),自动管理 cookiesverify=False(仅调试),同时加 urllib3.disable_warnings()
"\u4f60\u597d"),json.loads() 会自动解码,无需额外处理