答案是使用能执行JavaScript的工具或分析动态接口。关键在于选择合适方法:优先逆向分析XHR请求,用requests直接调用API;若需渲染,则用Playwright或Selenium模拟浏览器,获取动态内容。
Python爬虫抓取JavaScript渲染页面的关键在于让程序能执行页面中的JS代码,从而获取动态加载的内容。传统的requests库只能获取初始HTML源码,无法拿到Ajax或前端框架(如Vue、React)渲染后的内容。要解决这个问题,需要借助能执行JavaScript的工具。
Selenium是一个强大的自动化测试工具,它可以启动真实的浏览器(如Chrome、Firefox),完整执行JavaScript,适合处理复杂的动态页面。
技术要点:
from selenium import webdriver from selenium.webdriver.common.by import By from selenium.webdriver.support.ui import WebDriverWaitdriver = webdriver.Chrome() driver.get("https://www./link/ca14cd6c279d1
5639a51915b4b7917bc")
等待内容加载
element = WebDriverWait(driver, 10).until( lambda d: d.find_element(By.CLASS_NAME, "news-item") ) print(driver.page_source) driver.quit()
Playwright是微软开发的现代化自动化工具,支持多浏览器(Chromium、WebKit、Firefox),API更简洁,性能优于Selenium。
优势特点:
虽然Selenium和Playwright功能强大,但每次启动浏览器资源消耗较大。可通过以下方式优化:
对于简单接口,优先考虑分析XHR请求,直接调用API获取数据,比渲染整页更高效。
很多JS渲染页面的数据来自后端API。通过浏览器开发者工具查看Network面板,找出关键的XHR/fetch请求,用requests直接模拟调用。
操作步骤:
基本上就这些。根据目标网站的技术特点选择合适的方法:能走API就不渲染,必须渲染就用Playwright或Selenium。关键是理解页面数据来源,再决定爬取策略。不复杂但容易忽略的是请求头和反爬机制的处理,记得合理设置延时和IP代理。