Python字典用哈希表而非红黑树,因核心诉求是O(1)平均查找;采用开放寻址法处理冲突,扩容触发于负载因子超2/3,插入有序且查找分三步:算hash、位运算得索引、探测匹配。
因为字典核心诉求是 O(1) 平均查找,而红黑树是 O(log n)。哈希表在键类型支持 __hash__ 且分布合理时,能稳定维持常数级操作;Python 的 dict 还做了大量优化(如开放寻址、紧凑存储),实际性能远超理论值。
注意:不可哈希类型(如 list、dict)不能当键,会直接报 TypeError: unhashable type,不是运行时才检查,而是插入前就校验。
Python 不用链地址法,而是用开放寻址(open addressing)。每个桶只存一个键值对,冲突时按固定规则找下一个空位。探测序列不是线性(+1, +2…),而是基于原哈希值生成伪随机步长:index = (5 * index + 1) + perturb,其中 perturb 右移 5 位再参与下一轮计算——这能显著缓解“聚集效应”。
== 比较键本身DELETED 标记,避免后续查找断裂DELETED 桶被回收,空间重排
扩容时机与负载因子的实际表现Python 3.6+ 的字典是“插入有序”,但扩容逻辑没变:当已用槽数(含 DELETED)超过总槽数的 2/3 时触发扩容。注意,这个 2/3 是硬编码在 CPython 源码里的,不是可配置参数。
扩容不是简单翻倍,而是按预设大小序列增长:8 → 16 → 32 → 64 → 128 → ...,每次分配新数组后,把所有有效项重新 hash 插入。
DELETED 积累导致隐式扩容,实测内存占用可能突增 2–3 倍dict.clear() 会重置为初始大小(8 个槽),不是保留原容量{k:v for k,v in iterable} 比循环 dict[k]=v 更省内存(CPython 会预估大小)调用 dict[key] 时,CPython 实际执行的是 dict_getitem 函数,核心路径只有三步比对:
1. 计算 key 的 hash 值(调用 key.__hash__()) 2. 用 hash & (mask) 得到初始索引(mask = table_size - 1,所以 table_size 必须是 2 的幂) 3. 在该索引及后续探测位置中: - 跳过空槽和 DELETED 槽 - 遇到 hash 匹配的槽 → 再用 == 比较 key 对象本身 - hash 不匹配或 key 不等 → 继续探测
这意味着:两个不同对象只要 __hash__ 返回相同值且 __eq__ 返回 True,就被视为同一键——这是用户可控的行为,也是自定义类作字典键时最容易出错的地方。
真正难调试的问题往往藏在这里:比如你重写了 __eq__ 却忘了同步更新 __hash__,或者 hash 值依赖了可变字段。