Python多线程在I/O密集型任务中有效,但CPU密集型任务受GIL限制无法利用多核;应优先用ThreadPoolExecutor管理线程,共享数据需加锁或用queue.Queue,守护线程不保证执行完成。
Python 的多线程在 I/O 密集型任务中确实有用,但在 CPU 密集型任务中基本无效——这是由 GIL(全局解释器锁)决定的,不是写法问题,也不是优化能绕过的。
threading 跑不满多核 CPUCPython 解释器为保证内存管理安全,同一时刻只允许一个线程执行 Python 字节码。GIL 会强制串行化 CPU 密集操作,哪怕你开了 10 个 Thread,sum([i**2 for i in range(10**7)]) 这类计算也几乎不会比单线程快。
time.perf_counter() 测多线程 vs 单线程纯计算耗时,结果通常接近甚至更慢(线程切换开销)GIL
multiprocessing 或 concurrent.futures.ProcessPoolExecutor
ThreadPoolExecutor 比原生 Thread 更实用手动管理 Thread 对象容易出错:忘记 join()、异常未捕获、资源泄漏。而 ThreadPoolExecutor 自动处理生命周期和异常传播,适合绝大多数实际需求。
submit()(返回 Future)或 map()(批量、保序)min(32, (os.cpu_count() or 1) + 4),I/O 密集可适当调高,比如 max_workers=20
Future.result() 会阻塞,需配合 timeout 参数防卡死;异常会在调用 result() 时重新抛出from concurrent.futures import ThreadPoolExecutor
import requests
def fetch_url(url):
return len(requests.get(url).content)
with ThreadPoolExecutor(max_workers=5) as executor:
futures = [executor.submit(fetch_url, u) for u in urls]
results = [f.result(timeout=10) for f in futures]
Lock
多个线程读写同一个字典、列表或自定义对象时,不

threading.local() 更轻量(每个线程独立副本),适合存储请求上下文、数据库连接等queue.Queue(线程安全)传数据,而不是裸露全局变量Lock 要成对出现:try/finally 或 with lock:,否则一旦异常跳过 release() 就死锁daemon=True)不是“后台服务”设置 daemon=True 只表示:主线程退出时,该子线程会被强制终止,不管它是否跑完。它不提供任何后台保活、崩溃恢复或资源清理能力。
threading.Event 控制循环条件,并在主线程 join() 等待其自然结束多线程真正的难点不在启动多少个线程,而在厘清哪些数据被谁读写、哪些操作必须原子、哪些阻塞不可接受——GIL 是限制,但竞态和逻辑混乱才是线上事故的常见源头。