Python多线程仅对I/O密集型任务有效,因GIL使CPU密集型任务仍串行执行;推荐用ThreadPoolExecutor配5–20线程,注意异常捕获与共享变量加锁。
CPython的全局解释器锁(GIL)让多线程无法真正并行执行CPU密集型代码,但对文件读写、网络请求、数据库查询等I/O操作,线程会在等待时主动释放GIL,让其他线程运行。这意味着:requests.get()、time.sleep()、open() 等阻塞调用场景下,多线程能显著缩短总耗时。
实操建议:
threading.Thread 或 concurrent.futures.ThreadPoolExecutor 启动 5–20 个线程通常足够,过多反而因上下文切换增加开销multiprocessing
threading.Lock,否则可能产生竞态——比如多个线程同时修改一个 list.append() 而未同步因为GIL强制同一时刻只有一个线程执行Python字节码。即使开了10个线程跑 sum(range(10**7)),实际仍是串行执行,还额外承担了线程创建、调度、内存隔离的成本。
常见错误现象:
threading 加速图像缩放、文本分词、加密解密等操作,结果比单线程还慢 20%–50%top 显示CPU使用率始终卡在100%(单核满载)替代方案:直接换 multiprocessing.Process 或 concurrent.futures.ProcessPoolExecutor,绕过GIL限制。
ThreadPoolExecutor 的 max_workers 怎么设才合理这个参数不是越大越好,也并非必须等于CPU核心数。它本质是控制并发请求数量,和系统资源、目标服务限流策略强相关。
实操建议:
max_workers=10 常比 100 更稳——很多API会因并发过高返回 429 Too Many Requests
max_workers=4 通常已接近磁盘I/O极限,再高无收益time.perf_counter() 测单任务耗时,再按 总期望并发数 ≈ 期望吞吐 / 单任务平均耗时 反推多线程环境下,未捕获异常不会中断主线程,而是静默消失;而共享状态若没保护,结果可能随机出错。
关键细节:
ThreadPoolExecutor.submit() 返回的 Future 对象,必须显式调用 .result() 才会抛出子线程里的异常,否则错误被吞掉list、dict 等内置类型不是线程安全的——threading.local() 可为每个线程提供独立副本
logging.info())在多线程下默认是安全的,但自定义的文件写入逻辑必须自己加锁真实项目里,80%的“多线程变慢”或“结果错乱”问题,都出在没检查 Future.result() 或忘了保护共享数据结构。