Python阻塞I/O会使线程空等,降低CPU利用率与响应速度;虽释放GIL但无法真正并行,需用asyncio、多进程、超时控制或线程池缓解。
Python 的 I/O 阻塞会直接让当前线程停在读写操作上,直到数据就绪或传输完成,期间 CPU 无法执行其他任务——这在高并发、低延迟或大量文件/网络操作场景下,会显著拖慢整体性能。
默认的 open()、socket.recv()、input() 等都是阻塞调用。例如读一个远程 API 或大文件时,线程会空等,CPU 利用率低但响应变慢。
f.read() 可能卡住几十毫秒,影响实时性要求高的逻辑CPython 中,I/O 阻塞虽会释放 GIL,但线程仍被系统挂起,无法切换到其他 Python 工作线程——也就是说,多线程并不能真正“并行处理 I/O”。
threading 启 10 个线程做 HTTP 请求,实际仍是轮流等待,吞吐未必提升select、epoll)或异步模型(asyncio)不依赖外部库的前提下,有几种实用路径:
asyncio + aiohttp/aiosqlite:适合 I/O 密集型服务(如 Web 后端),单线程高效复用连接multiprocessing):绕过 GIL,适合 CPU + I/O 混合任务(如批量处理文件+计算)socket.settimeout(3) 或 urlopen(..., timeout=5)

concurrent.futures.ThreadPoolExecutor):对已有阻塞函数做轻量封装,比裸写线程更安全可控以下不是性能最优解,但能说明差异:
with open('huge.log') as f: data = f.read() —— 调用返回前什么都不能干async with aiofiles.open('huge.log') as f: data = await f.read() —— 读文件时可同时处理其他协程关键不在“是否快”,而在“能否把等待时间利用起来”。