默认write()频繁小IO导致性能下降,因缓冲区易满而多次系统调用;应显式增大buffering(如64KB)或批量拼接后一次写入。
Python 默认的 file.write() 在写入大文件时如果不加控制,会频繁触发系统调用、产生大量小 IO,导致性能急剧下降——这不是代码逻辑问题,而是缓冲策略没对上实际负载。
write() 大量小字符串会变慢每次调用 file.write("...") 时,Python 默认使用行缓冲(sys.stdout)或全缓冲(普通文件),但若你反复写入短字符串(比如逐行拼接日志、逐条 dump JSON),缓冲区可能频繁被填满并刷新,底层实际变成多次 write(2) 系统调用。实测 100 万行、每行 100 字节,不缓冲写入可能比批量写慢 3–5 倍。
open(..., buffering=-1) 会按系统块大小(通常 4KB–8KB)自动缓冲,但「自动」不等于「够用」flush() 手动刷盘会强制同步,除非必要,别在循环里调用print(..., file=f) 比 f.write() 多一层格式化开销,高频写入时建议绕过buffering 参数显式控制缓冲区大小把缓冲区从默认值(如 8192)扩大到 64KB 或 1MB,能显著减少系统调用次数,尤其适合连续写入场景(如导出 CSV、生成日志、dump 二进制流)。
buffering=0:禁用缓冲(仅适用于二进制模式,文本模式报错)buffering=8192:固定 8KB 缓冲(比默认更可控)buffering=1024*1024(1MB):适合单次写入总量 >10MB 的场景with open("output.log
", "w", buffering=64*1024) as f:
for i in range(1000000):
f.write(f"line {i}: data...\n")
write() 比逐行写快得多当数据可预计算、内存允许(例如百万级字符串,总长
str.join() 替代循环 +=(后者在 Python 中是 O(n²))itertools.islice 分批,别直接 join(gen)(会耗尽生成器且无长度提示)"\n".join(lines) + "\n" 是常见安全写法lines = [f"line {i}: data..." for i in range(100000)]
batch = "\n".join(lines) + "\n"
with open("output.txt", "w") as f:
f.write(batch)
writelines() 避免隐式换行和类型检查开销如果你已有每行带换行符的字符串列表(如 ["a\n", "b\n", "c\n"]),writelines() 比循环 write() 快约 15–20%,因为它跳过了 print-style 格式化与换行补全逻辑。
writelines() 不自动加换行符,必须确保每个元素自带 \n 或 \r\n
list、tuple、generator),但 generator 若中途异常可能只写一部分writelines(big_list) —— 它内部仍是逐个 write,没解决系统调用频次问题lines_with_newline = (f"line {i}\n" for i in range(100000))
with open("output.txt", "w") as f:
f.writelines(lines_with_newline)
真正卡住性能的往往不是“怎么写”,而是“什么时候写”和“写多少才刷”。缓冲区大小、是否预聚合、换行符位置这些细节,在 GB 级写入任务里,差的不是几秒,而是几分钟甚至磁盘 I/O 队列拥塞。别迷信默认值,用 strace -e trace=write python script.py 实测你的写入行为,比读十篇教程都管用。