Java批量导入核心是分批+事务+异常隔离,需分片读取处理防内存溢出和超时;POI用SAX或StreamingUserModel,CSV用OpenCSV流式解析;批次大小建议500~2000条。
Java批量数据导入的核心是“分批+事务+异常隔离”,不是一次性塞进数据库,而是控制节奏、保障稳定、便于排查。
避免内存溢出和数据库连接超时,必须对大文件或大数据集做切片处理。
SAX模式(XSSF and SAX)或StreamingUserModel逐行解析,不加载全量到内存CsvToBeanBuilder配合自定义RowProcessor实现流式处理for (int i = 0; i 切分
整个导入不能包在一个大事务里——失败会回滚全部,也不宜每条都开事务——性能太差。
@Transactional(propagation = Propagation.REQUIRES_NEW)标注批量处理方法,但需注意线程上下文与事务传播问题TransactionTemplate执行批次逻辑,捕获异常后记录错误行并继续下一批用户需要知道哪几行失败、为什么失败,而不是“导入失败”四个字。
ImportResult对象,含原始数据、状态(成功/失败)、错误信息、行号前端上传后立刻响应,后台慢慢跑,用户可随时查看进度。
import_task记录,状态为“处理中”,带唯一任务IDTh
readPoolTaskExecutor)异步执行,避免阻塞Web容器线程基本上就这些。关键不在技术多炫,而在把“断点续传”“错行定位”“用户可理解的反馈”落到实处。