json.tool 命令行处理大文件会因全量加载内存而失败;推荐用 jq(流式、高效)或 ijson(Python 中迭代解析),超 1GB 应转向结构探查、分块导出或数据库查询。
json.tool 是 Python 自带的 JSON 格式化工具,但它的命令行用法 python -m 会把整个文件一次性读入内存解析。当 JSON 文件超过几百 MB,常见现象是进程被系统 OOM killer 杀掉,或卡死数分钟无响应——这不是你操作错,是设计如此。
真正可行的方案是绕过 json.tool,改用支持迭代解析的库。最轻量且兼容性好的选择是 ijson,它不构建完整对象树,而是按需提取路径值,适合只做“美化输出”这种单次遍历任务:
pip install ijson
jq 更快:jq '.' input.json > output.json(jq 默认流式处理,1GB 文件通常几秒内完成)ijson.parse() + 手动缩进拼接,但注意:这已不是“美化”,而是自定义序列化,需自行控制 indent、separators 等参数如果坚持用标准库,唯一缓解方式是分块预检 + 调整系统资源:
head -c 100M input.json | python -m json.tool > /dev/null 快速验证前 100MB 是否合法ulimit -v $((1024*1024*2000))(设 2GB 虚拟内存),实际效果取决于系统剩余内存pypy -m json.tool ...
超过 1GB 的 JSON 几乎肯定不该以单文件形式存在。此时所谓“美化”已失去意义——人类无法阅读,编辑器打不开,Git 无法 diff。更务实的做法是:
jq 'keys' 或 ijson.items('input.json', 'item.key') 快速探查结构pandas.read_json(..., lines=True) 如果是 JSON Lines)sqlite3 + json1 扩展可高效查询嵌套字段)硬要格式化,jq 是目前唯一靠谱的通用命令行工具;Python 标准库的 json.tool 在这个量级下只是个验证器,不是处理器。