bytearray可原地修改且复用内存,bytes不可修改;操作时应预估大小、用extend()拼接、注意传参副作用及转换开销。
bytearray 不会触发新对象分配,bytes 一改就报错这是最直接的差异:你不能对 bytes 做任何原地修改——哪怕只是改一个字节,Python 就立刻抛 TypeError: 'bytes' object does not support item assignment。而 bytearray 允许 ba[0] = 65、ba.append(98)、del ba[-1] 这类操作,全程复用同一块内存地址。
实操建议:
id() 对比验证:id(ba) 在多次修改后不变;id(b) 和 id(b.replace(...)) 一定不同bytes 接收网络流或文件缓冲区后再“加工”——它强制你每次操作都拷贝整段数据b'hello'.decode()),bytes 更轻量;但凡要拼接、截断、填充、加校验位,优先选 bytearray
bytearray 拼接时用 extend(),别用 += 或 +
+= 看似是原地操作,但在 bytearray 上它其实等价于 __iadd__,底层仍可能触发隐式拷贝(尤其当预留空间不足时)。而 extend() 明确走扩容+复制路径,行为更可控。
常见错误现象:
ba += b'\x00' → 内存分配次数随长度线性增长,性能暴跌ba = ba + other_ba → 创建全新 bytearray,旧对象被丢弃,GC 压力增大正确做法:
ba = bytearray(4096),再用 ba[:n] = ... 填充ba.extend(other),支持 bytes、bytearray、list(元素为 0–255 整数)memoryview(ba) 切片访问,比复制更省bytearray 修改会反映到调用方因为 bytearray 是可变对象,传入函数后,你在函数里 ba.append() 或 ba[0] = 1,调用方看到的就是被改过的原对象——不像 bytes 那样天然隔离。
容易踩的坑:
def encrypt_inplace(data): data[:] = ... → 调用者原始数据被意外覆盖bytearray 缓冲区 → 竞态修改导致数据错乱(它不是线程安全的)ba.copy() 是深拷贝 —— 实际只是浅拷贝(新对象,但内容独立),这点比 list.copy() 更易混淆建议:
if not isinstance(data, bytearray): data = bytearray(data) 或 data = data.copy()
threading.local() 绑定私
bytearray
bytes 创建 bytearray 的开销不可忽略看似只是一次转换:ba = bytearray(b),但背后是完整内存拷贝——哪怕 b 有 10MB,这一步就要额外分配 10MB 并逐字节复制。
性能影响明显的情况:
bytearray(recv_bytes) → CPU 和内存带宽成瓶颈bytes 作缓存键(如 cache[b]),又频繁转成 bytearray 修改 → 双重浪费优化方向:
bytearray(如 socket.recv_into(bytearray))memoryview(b) 切片访问的,就不转 bytearray
bytes 片段,再一次性构造大 bytearray,而非逐个转bytearray 的可变性像一把没鞘的刀——用得好省资源,握得松就割手。尤其在底层协议解析、二进制打包、零拷贝优化这些地方,多看一眼 id() 和内存占用曲线,比背十遍文档管用。