Pydub负责音频的加载、剪辑、格式转换等“听得到”的操作,Librosa专注频谱、MFCC、节奏等“看得见”的分析;二者协同时需将Pydub的int16数组归一化为float32供Librosa使用。
Python 音频处理并不需要从零造轮子,Pydub 和 Librosa 是两个分工明确、上手快、生态成熟的主力库:Pydub 负责“听得到”的操作(加载、剪辑、格式转换、简单混音),Librosa 专注“看得见”的分析(频谱、梅尔特征、节奏、音高、语音事件检测)。
Pydub 的设计哲学是“像操作字符串一样操作音频”,所有操作都基于 AudioSegment 对象,不依赖底层音频知识也能快速完成日常任务。
audio = AudioSegment.from_file("song.mp3");导出也只需 audio.export("out.wav", format="wav")
intro = audio[:10000] 表示前 10 秒,verse = audio[30*1000:60*1000] 表示第 30–60 秒audio + 5 提升 5dB,audio - 3 降低 3dB;audio1.overlay(audio2, position=5000) 在第 5 秒处叠加另一段音频;audio.fade_in(2000).fade_out(1000) 添加 2 秒淡入 + 1 秒淡出Librosa 是音频信号处理与音乐信息检索(MIR)的事实标准,它把原始波形转化为可用于机器学习或可视化的结构化特征,核心在于理解采样率、帧长、hop_length 这几个参数如何影响结果。
y, sr = librosa.load("speech.wav", sr=16000) 自动将音频转为指定采样率,并返回归一化浮点数组 y(-1.0 ~ 1.0)和采样率 sr
stft = librosa.stft(y, n_fft=2048, hop_length=512) 得到复数频谱;再用 librosa.amplitude_to_db(np.abs(stft)) 转为对数幅度谱,可直接用 matplotlib 显示声谱图mel_spec = librosa.feature.melspectrogram(y=y, sr=sr, n_mels=128);mfccs = librosa.feature.mfcc(y=y, sr=sr, n_mfcc=13) —— 这两类特征是语音识别、情绪分类等任务最常用的输入tempo, beats = librosa.beat.beat_track(y=y, sr=sr) 可估计算法节拍;chroma = librosa.feature.chroma_stft(y=y, sr=sr) 提取十二平均律色度特征,适合和弦识别二者不冲突,而是互补:Pydub 处理“前端”——裁剪、降噪预处理、统一格式;Librosa 接手“后端”——特征提取与建模。关键在于数据格式桥接。
立即学习“Python免费学习笔记(深入)”;
def pydub_to_librosa(audio_segment):
arr = np.array(audio_segment.get_array_of_samples())
return arr.astype(np.float32) / (1 << (audio_segment.sample_width * 8 - 1))
new_audio = AudioSegment(
data=processed_y.astype(np.int16).tobytes(),
sample_width=2,
frame_rate=sr,
channels=1)
audio.apply_gain(-noise_level) 粗略压制背景音),再用 Librosa 提取 MFCC 和过零率做说话人验证;或用 Librosa 找出静音段起止点,再用 Pydub 批量裁掉首尾静音新手常在环境、参数、精度上卡住,这几个点提前注意能省大量调试时间。
conda install -c con
da-forge ffmpeg),避免手动配 PATH;Mac 用户用 brew install ffmpeg;Linux 注意权限问题mono=False,但后续多数特征函数不支持多维输入,需自行拆通道处理sklearn.preprocessing.StandardScaler)或 min-max 缩放