利用BeautifulSoup解析HTML时,精准选择器能提升提取效率:
soup.find('h1').text
soup.select('.mw-parser-output p')
soup.find('table', class_='infobox')
处理JavaScript渲染内容
部分百科站点(如某些中文百科)使用JavaScript动态加载正文或图片。此时requests获取的源码不含实际内容。
解决方案有两种:
- 使用Selenium驱动真实浏览器访问,等待页面加载完成后再提取数据
- 分析XHR请求,直接调用API接口获取JSON格式原始数据(效率更高)
例如维基百科提供REST API:
https://en.wikipedia.org/api/rest_v1/page/summary/{title}
可直接获得结构化摘要信息,避免解析HTML。
遵守规则与反爬策略
频繁请求可能触发IP封锁或验证码。合理设置请求间隔,添加headers模拟正常浏览行为。
- 设置User-Agent伪装成主流浏览器
使用time.sleep()控制频率,建议每两次请求间隔1-2秒
- 考虑使用代理池分散请求来源
同时遵循robots.txt协议,不抓取禁止目录,尊重网站版权。
数据清洗与结构化存储
原始抓取内容常含多余标签、引用标记(如[1])、内部链接等。需进行清洗:
- 去除、类引用标签
- 提取纯文本使用get_text(strip=True)
- 将条目按标题、简介、正文、图片链接、参考资料分类存储
推荐保存为JSON或CSV格式,便于后续分析或导入数据库。
基本上就这些。关键是理解目标网站结构,选择合适工具,合法合规地获取信息。不复杂但容易忽略细节。