本文档旨在帮助开发者解决在使用 StringTokenizer 处理文本文件时遇到的首行读取问题。我们将探讨 StringTokenizer 的局限性,并提供一种更现代、更灵活的解决方案,使用 BreakIterator 和 Java 8 Stream API 从文本文件中提取所有单词,并将其存储到 ArrayList 中。
最初的代码尝试使用 BufferedReader 逐行读取文件,并使用 StringTokenizer 将每行分解为单词。然而,代码跳过了文件的第一行,因为在进入 while 循环之前调用了 reader.readLine() 一次。此外,StringTokenizer 在处理复杂的文本时可能不够灵活,例如包含标点符号或特殊字符的单词。
为了更有效地提取单词,我们可以使用 BreakIterator 类,它提供了用于定位文本中的单词边界的工具。结合 Java 8 Stream API,我们可以简化代码并提高可读性。
以下是使用 BreakIterator 和 Stream API 的示例代码:
import java.text.BreakIterator; import java.util.ArrayList; import java.util.List; import java.util.stream.Stream; import java.nio.file.Files; import java.nio.file.Paths; import java.io.IOException; public class WordCollector { public static void main(String[] args) { try { List
words = WordCollector.getWords(Files.lines(Paths.get(args[0]))); System.out.println(words); } catch (IOException e) { System.err.println("Error reading file: " + e.getMessage()); e.printStackTrace(); } catch (Throwable t) { t.printStackTrace(); } } public static List getWords(Stream lines) { List result = new ArrayList<>(); BreakIterator boundary = BreakIterator.getWordInstance(); lines.forEach(line -> { boundary.setText(line); int start = boundary.first(); for (int end = boundary.next(); end != BreakIterator.DONE; start = end, end = boundary.next()) { String candidate = line.substring(start, end).replaceAll("\\p{Punct}", "").trim(); if (candidate.length() > 0) { result.add(candidate); } } }); return result; } }
代码解释:
getWords(Stream
main(String[] args) 方法:
使用方法:
通过使用 BreakIterator 和 Stream API,您可以更有效地从文本文件中提取单词,并避免 StringTokenizer 带来的问题。此解决方案提供了更高的灵活性和可读性,使其成为处理文本数据的更好选择。