yield使函数变成生成器:调用时返回generator对象,保存栈帧状态,通过next()/send()暂停恢复执行;return触发StopIteration;需注意可变对象共享陷阱及close()/throw()资源控制。
调用一个含 yield 的函数时,它不会立即执行函数体,而是直接返回一个 generator 对象。这个对象本质上是实现了迭代器协议(__iter__ 和 __next__)的状态机。
关键点在于:函数的局部变量、执行位置、异常状态都被保存在生成器对象内部,不是靠线程或协程调度,而是靠 CPython 解释器在每次 next() 或 send() 时恢复栈帧(PyFrameObject)来实现“暂停-恢复”。
yield 表达式本身会暂停执行,并把右侧值返回给调用方(类似 return,但不销毁栈帧)__next__() 时,从 yield 后一条语句继续执行send(value),则该 value 会成为上一个 yield 表达式的求值结果return 在生成器中不是禁止的,但它有特殊语义:触发 StopIteration 异常,并可携带一个返回值(Python 3.3+ 支持 return value,该值会成为 StopIteration.value)。
而 yield 永远不会结束生成器,除非自然退出或被 close() / throw() 中断。
next(gen) 会执行到第一个 yield 并暂停;此时不能用 send(value)(必须先 next() 或 send(None))return 后不能再有代码(语法错误),但 yield 后可以跟普通语句(只要没被执行到)next(),一律抛出 StopIteration,且不可重用很多人以为 yield 会“冻结”所有变量,其实它只保存执行点和栈帧,而可变对象(如 list、dict)仍被多个迭代周期共享 —— 这是 bug 高发区。
def bad_counter():
items = []
for i in range(3):
items.append(i)
yield items # ❌ 所有 yield 都返回同一个 list 对象
for x in bad_counter():
print(x)
输出:
[0]
[0, 1]
[0, 1, 2] ← 不是预期的 [0], [1], [2]
yield 前做浅拷贝(yield items.copy())或重建新对象(yield [i])copy.deepcopy(),但注意性能开销
易出现,尤其配合 append() / update() 等就地修改操作生成器不是被动等待 next(),它支持主动中断和注入异常,这是实现资源清理和流程控制的关键。
gen.close() 触发 GeneratorExit 异常,可在 try/finally 中释放资源(但禁止在 except GeneratorExit 中 yield)gen.throw(type, value, traceback) 把异常注入当前暂停点,可用于模拟错误路径或驱动状态机gen.send() 不仅传值,还能唤醒 yield 左侧等待赋值的表达式,例如 data = yield
这些机制共同构成生成器的完整生命周期控制能力,但实际项目中容易忽略 close() 调用时机 —— 比如在 for 循环未完成就跳出时,生成器不会自动关闭,可能造成资源泄漏。