Java集合去重应构造无重复新集合而非原地删除:①用LinkedHashSet保持顺序去重;②Stream.distinct()链式处理;③toMap按字段去重;④禁止遍历时直接remove。
Java中对集合去重,核心在于利用集合自身特性(如 Set 不允许重复元素)或借助工具类/流式操作实现。关键不是“删重复”,而是“构造一个不含重复的新集合”——这是最自然、高效且安全的做法。
这是最常用、最简洁的方式:把原集合(如 List)传给 HashSet 或 LinkedHashSet 构造器。
HashSet:去重且不保证顺序,适合只关心元素唯一性的场景LinkedHashSet:去重并保持插入顺序,推荐用于多数业务场景(如展示列表去重)示例:
List适用于需要链式处理的场景,比如去重后还要过滤、映射或收集为其他类型。
distinct() 基于元素的 equals() 和 hashCode() 判断是否重复list.stream() 保持插入顺序)示例:
List当需根据某字段(而非整个对象)判断重复时,不能直接用 distinct() 或 Set,需手动控
制。
Collectors.toMap():以去重字段为 key,对象为 value,自动覆盖重复 keyfilter() + ConcurrentHashMap::putIfAbsent 实现无状态去重(适合并行流)示例(按 id 去重):
List用 for 循环或增强 for 遍历 List 并调用 remove(),极易引发 ConcurrentModificationException 或漏删——这不是去重的合理方式。
Iterator.remove()