用XSSF-SAX流式解析替代XSSFWorkbook,内存稳定几MB、速度提升3~5倍;关闭公式计算、跳过隐藏表、只读打开;解析后批量入库,1000~5000行flush一次。
用 Java 解析大 Excel(比如 10 万行以上、10MB+ 的 .xlsx 文件),别用 Apache POI 的默认 XSSFWorkbook —— 它会把整个文件加载进内存,OOM 是常态。核心提速思路就一条:用流式读取(SAX 模式)绕过 DOM 加载,边解析边丢弃,内存可控、速度翻倍。
SXSSF 是 POI 提供的“流式写入”方案,但读取大文件它不适用;真正适合大文件读取的是 XSSF-SAX(即 org.apache.poi.xssf.eventusermodel.XSSFSheetXMLHandler + XMLReader)。它不构建对象树,而是监听 XML 标签事件,只保留当前行/单元格数据。
SharedStringsTable)、数字格式、空单元格等细节POI 默认会尝试解析公式、校验样式、加载所有 sheet —— 对纯数据导入场景全是冗余开销。
new ReadOnlySharedStringsTable(inputStream),避免复制字符串表OPCPackage.open(file, PackageAccess.READ) 打开,明确指定只读workbook.getNumberOfSheets() 前先检查 workbook.isSheetHidden(i) 和实际行数(用 sheet.getPhysicalNumberOfRows() > 0 判断)workbook.setForceFormulaRecalculation(false)(对 XSSF-SAX 无效,但对其他模式有用)解析快了,但每行 new 一个
Entity 再 insert into ... values (?, ?, ?) 单条执行,数据库成瓶颈。必须配合批量写入。
JdbcTemplate.batchUpdate 或 MyBatis foreach)ALTER TABLE xxx DISABLE KEYS)单线程 SAX 已很快,但若文件极大(如 500 万行)且 CPU 闲置,可考虑逻辑分片:
ZipInputStream 定位 xl/worksheets/sheet1.xml 在 zip 中的偏移和大小(注意:xlsx 是 zip 包)|
标签切分成多段(需小心跨标签截断,建议用 SAX 分页器或预扫描行号)SharedStringsTable 和样式上下文,实现复杂,一般 200 万行内不建议上基本上就这些。不复杂但容易忽略:选对模型(SAX)、关掉冗余行为、批量落库。上线后加个简单监控(比如每 10 万行打个 log + 耗时),就能稳住百万级 Excel 解析。