@lru_cache有时拖慢程序:因参数不可哈希报错、大返回值耗内存触发GC、隐式状态导致缓存过期错误;应先性能分析,确保参数不可变、限制maxsize,避免缓存I/O或随机函数。
@lru_cache 有时反而拖慢程序?不是所有函数都适合加 @lru_cache。如果函数参数是不可哈希类型(比如 dict、list),会直接抛出 TypeError: unhashable type;如果返回值很大(如长字符串或嵌套结构),缓存本身会吃掉大量内存,甚至触发频繁 GC;更隐蔽的是,若函数有隐式状态(比如依赖全局变量、文件读取或时间戳),缓存会返回过期结果,导致逻辑错误。
实操建议:
timeit 或 cProfile 确认该函数确实是性能瓶颈,且重复调用比例高tuple 替代 list,用 frozenset 替代 set
@lru_cache(maxsize=128),避免无限增长;设为 None 表示无上限,但生产环境慎用functools.cache 和 @lru_cache() 到底选哪个?functools.cache 是 Python 3.9+ 引入的简写,等价于 @lru_cache(maxsize=None),底层共享同一实现。区别只在语义和可控性:
实操建议:
@lru_cache(maxsize=...)
@cache 更简洁@lru_cache()
threading.RLock 或改用 cached_property
self 导致的缓存失效直接对实例方法加 @lru_cache 会失败,因为 self 是可变对象,无法哈希。常见错误写法:@lru_cache 放在 def method(self, x): 上 → 报 unhashable type: 'MyClass'。
实操建议:
self),再缓存它,类内调用该函数@cached_property 缓存**属性级**结果(
@lru_cache 装饰一个接收 id(self), x 的函数,但要注意 id 复用风险,不推荐用于长生命周期对象@classmethod)可直接缓存,因 cls 是类型对象,可哈希@lru_cache 依赖参数的 __hash__ 和 __eq__。自定义类若没重写这两个方法,默认用 id,看似安全;但一旦重写了 __eq__ 却没同步更新 __hash__(比如设为 None),就会导致所有实例 hash 为 0,全部命中同一个缓存槽——结果错乱且难以排查。
实操建议:
__hash__ 和 __eq__,且满足“相等对象必须有相同 hash”@dataclass(frozen=True),它自动生成兼容的 __hash__ 和 __eq__
args 和 repr(args),确认传入值是否真的一致@lru_cache(maxsize=1),看是否仍复用结果——若仍复用,大概率是 hash 冲突而非逻辑问题