17370845950

Python 文件按大小切割保存的方法
答案:Python可通过分块读写实现文件切割。先按指定大小(如50MB)以二进制模式读取原文件,逐段写入命名含序号的新文件(如file_part_001),确保磁盘空间充足并保留原始信息以便合并。

处理大文件时,经常需要将一个大文件按指定大小切割成多个小文件,便于传输或存储。Python 提供了简单有效的方式来实现文件按大小切割保存。下面介绍具体方法。

1. 基本思路

读取原始文件,以设定的块大小(如 10MB)逐段读取内容,并写入新的分片文件中。每个分片文件命名可按序号递增,例如 file_part_001.txtfile_part_002.txt 等。

2. 实现代码示例

以下是一个通用函数,用于将任意文件按指定大小(字节)进行切割:

import os

def split_file(file_path, chunk_size_mb):
    # 转换为字节
    chunk_size = chunk_size_mb * 1024 * 1024

    # 获取文件名和目录
    dir_name = os.path.dirname(file_path)
    base_name = os.path.basename(file_path)

    # 打开原文件
    with open(file_path, 'rb') as f:
        part_num = 1
        while True:
            data = f.read(chunk_size)
            if not data:
                break  # 文件读取完毕

            # 构造分片文件名
            part_filename = f"{base_name}.part{part_num:03d}"
            part_filepath = os.path.join(dir_name, part_filename)

            # 写入分片
            with open(part_filepath, 'wb') as part_file:
                part_file.write(data)

            print(f"已生成分片: {part_filepath}, 大小: {len(data)} 字节")
            part_num += 1

    print(f"文件切割完成,共生成 {part_num - 1} 个分片。")

3. 使用方式

假设你要将当前目录下的 large_data.zip 按每份 50MB 切割:

split_file('large_data.zip', chunk_size_mb=50)

执行后会生成如下文件:

  • large_data.zip.part001
  • large_data.zip.part002
  • ...

4. 注意事项

实际使用中需注意以下几点:

  • 确保磁盘有足够空间存放所有分片
  • 二进制模式('rb'/'wb')适用于所有类型文件,包括文本、压缩包、视频等
  • chunk_size_mb 设置过小会导致分片过多,影响管理
  • 建议保留原始文件名信息以便后续合并

基本上就这些。这个方法简单可靠,适合大多数场景下的文件分割需求。