HttpURLConnection最轻量适合基础抓取,需设User-Agent、处理重定向、指定UTF-8编码;Jsoup更可靠,自动解析HTML并支持CSS选择器;多页爬取须限速控并发;文件保存需注意路径、编码与特殊字符处理。
HttpURLConnection 发起 GET 请求最轻量不需要引入第三方库,JDK 自带的 HttpURLConnection 就能完成基础页面抓取。适合学习网络通信原理或做一次性小任务。
关键点在于设置请求头、处理重定向、读取响应流——很多初学者卡在没设 User-Agent 被 403 拒绝,或忽略 setInstanceFollowRedirects(false) 导致跳转后丢失原始响应。
connect() 才真正发起连接,仅 new 出对象不发包getResponseCode() 判断,getInputStream() 在非 2xx/3xx 时会抛 IOException
new String(bytes, "UTF-8") 解码URL url = new URL("https://example.com");
HttpURLConnection conn = (HttpURLConnection) url.openConnection();
conn.setRequestMethod("GET");
conn.setRequestProperty("User-Agent", "Mozilla/5.0");
conn.setConnectTimeout(5000);
conn.setReadTimeout(5000);
int code = conn.getResponseCode();
if (code == 200) {
InputStream is = conn.getInputStream();
String html = new String(is.readAllBytes(), "UTF-8");
}
Jsoup.connect() 解析 HTML 更可靠纯 HTTP 工具(如 HttpURLConnection)只负责拿回字符串,要提取标题、链接、表格等内容,得自己写正则或 DOM 解析逻辑——极易出错且维护成本高。直接上 Jsoup 是更务实的选择。
它内置了 HTML 解析器、CSS 选择器支持,还能自动处理编码、标签闭合、XSS 过滤等细节。注意别漏掉 .userAgent() 和 .timeout(),否则默认超时是 3 秒,很多网站会断连。
select("a[href]") 比手写正则 href="([^"]+)" 更稳定,能正确处理换行、属性顺序、引号类型abs("href") 获取绝对 URL,避免相对路径拼接错误Jsoup 无法执行脚本,此时需换用 Selenium 或 PuppeteerDocument doc = Jsoup.connect("https://example.com")
.userAgent("Mozilla/5.0")
.timeout(10000)
.get();
Elements links = doc.select("a[href]");
for (Element link : links) {
String url = link.absUrl("href"); // 不是 link.attr("href")
System.out.println(url);
}
写个 for 循环连续请求 100 个页面,看似简单,实则大概率被封 IP 或触发反爬。服务器端看到密集短连接,会直接返回 429 或 503,甚至拉黑整个出口 IP。
最简单的缓解方式是加固定延时 + 限速,但比这更重要的是理解“为什么不能快”:HTTP 连接复用、DNS 缓存、TCP 握手开销都会被高频请求放大。盲目加线程反而加剧问题。
Thread.sleep(1000) 控制每秒 1 次请求,已能满足多数静态站点ExecutorService 限定线程数(如 Executors.newFixedThreadPool(3)),并为每个任务单独设 timeoutConnection 实例跨请求,每次 Jsoup.connect() 都新建连接更安全把抓到的 HTML 写进本地文件,看似一步操作,实际容易踩三个坑:路径含中文导致 FileNotFoundException、Windows 默认 GBK 写入 UTF-8 内容变乱码、文件名非法字符(如 /、:)引发异常。
Java 8+ 推荐用 Files.write() 替代老式 FileWriter,它强制指定字符集,且对路径处理更健壮。
URLEncoder.encode(filename, "UTF-8") 处理文件名中的特殊字符
Paths.get("data", "page.html") 构造,避免手动拼接 / 或 \
Files.createDirectories(Paths.get("data"))
String content = doc.html();
String safeName = URLEncoder.encode("example.com", "UTF-8") + ".html";
Path path = Paths.get("data", safeName);
Files.createDirectories(path.getParent());
Files.write(path, content.getBytes(StandardCharsets.UTF_8));
真实项目里,反爬策略、登录态维持、增量去重、代理轮换这些环节才真正决定爬虫能否长期运行。上面这些只是让程序“跑起来”的最小可行路径。