requests是Python爬虫最该先掌握的库,因其简单稳定且能满足90%静态页面抓取需求;包含安装与基础请求、带参与请求头、响应数据处理、异常处理与会话保持四大核心用法。
想用 Python 写爬虫,requests 是最该先掌握的库——它简单、稳定、功能够用,90% 的静态页面抓取任务靠它就能搞定。
装和基础请求:三行代码拿下网页先确保已安装 requests(没装就运行 pip install requests)。然后:
示例:
import requests
res = requests.get('https://httpbin.org/get')
print(res.status_code) # 看状态码,200 表示成功
print(res.text) # 打印响应正文
很多网站会检查 User-Agent,直接请求可能被拒绝或返回 403。加上 headers 就能绕过基础反爬:
示例:
url = 'https://httpbin.org/get'
params = {'page': 1, 'limit': 10}
headers = {'User-Agent': 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36'}
res = requests.get(url, params=params, headers=headers)
拿到响应后,别急着正则或手撕 HTML。先判断类型再选工具:
示例(解析 JSON 接口):
res = requests.get('https://httpbin.org/json')
data = res.json() # 自动解析,不用 json.loads(res.text)
print(data['slideshow']['title']) # 直接按键取值
真实环境中网络不稳定、目标站改版、超时都是常态,加一层防护很必要:
示例(带超时和会话):
session = requests.Session()
session.headers.update({'User-Agent': 'xxx'})
try:
res = session.get('https://www./link/d9976f1c2c0c972d1cee0c3647cbd194', timeout=(3, 10))
res.raise_for_status() # 非2xx状态码抛异常
except requests.exceptions.RequestException as e:
print("请求失败:", e)