必须加锁,否则并发写入同一文件会导致数据错乱、覆盖或丢失;线程用threading.Lock保护write/flush,进程用multiprocessing.Lock或fcntl.flock,优先采用分文件、队列或安全日志库等无锁方案。
Python中并发写入同一文件时,必须加锁,否则极易导致数据错乱、覆盖或丢失。核心原则是:多个线程/进程不能同时调用 write() 或修改文件指针位置。
同一进程内多线程写文件,共享文件对象(如 open() 返回的句柄),需用 threading.Lock 确保每次只有一个线程执行写入和刷新动作。
.write()
、.flush() 必须包裹在 with lock: 块中print(..., file=f) 或 f.writelines() —— 它们不是原子操作lock = threading.Lock()
with open("log.txt", "a") as f:
with lock:
f.write(f"[{time.time()}] msg\n")
f.flush()
不同进程拥有各自文件描述符,threading.Lock 无效。推荐两种方式:
multiprocessing.Manager().Lock() 或 multiprocessing.Lock()(注意它可跨进程共享)fcntl.flock()(Linux/macOS)或 msvcrt.locking()(Windows)对文件本身加锁,确保写入前独占文件"a" 模式追加看似安全,但 write() + flush() 组合仍可能因缓冲/调度出现交错,不能替代显式锁锁只是兜底手段,设计上应优先降低冲突概率:
log_worker_001.txt),后续合并 —— 无锁、易调试queue.Queue 或 multiprocessing.Queue)集中写入:仅一个消费者线程/进程负责落盘concurrent-log-handler(自动处理轮转与锁)或数据库代替纯文件以下做法看似省事,实际不可靠:
write() 却不锁 seek() 或 truncate() —— 文件指针操作同样需要同步time.sleep() “错开”写入时间 —— 无法保证竞态不发生,且降低性能"a" 模式自动线程安全 —— 它仅保证 OS 层追加原子性,Python 层的编码、换行、缓冲仍可能被打断