JavaScript的Media API仅提供媒体元素控制接口和状态监听,不直接操作音视频数据;底层解码、处理需Web Audio API(音频)或Canvas/WebCodecs(视频)。
JavaScript 的 Media API 本身不直接“操作音频/视频数据”,它提供的是对媒体元素(、)的**控制接口**和**状态监听能力**;真正做解码、处理、合成等底层操作,得靠 Web Audio API(音频)或 Canvas + requestVideoFrameCallback / WebCodecs API(视频)。别一上来就冲着“剪辑”“混音”去,先分清边界。
HTMLMediaElement 控制播放/暂停/跳转所有 和 元素都继承自 HTMLMediaElement,它的方法和属性就是最常用的控制入口。
play() 和 pause() 是核心控制方法,但注意:现代浏览器要求用户手势触发(如 click)后才能调用 play(),否则会抛出 NotAllowedError
currentTime 是可读写属性,单位是秒,设值即跳转,但需等 loadedmetadata 事件后才可靠 —— 否则可能被忽略或重置volume 范围是 0.0 到 1.0,设为 0 不等于静音(muted 才是硬静音),muted = true 会绕过系统音量且不触发权限提示playbackRate 支持变速(如 2.0 加速两倍),但部分格式(尤其 HLS)在移动端可能不生效const video = document.querySelector('video');
video.addEventListener('loadedmetadata', () => {
video.currentTime = 30; // 跳到第30秒
});
document.getElementById('playBtn').addEventListener('click', () => {
video.play().catch(e => console.warn('自动播放被阻止:', e));
});
play() 总是失败?常见静音与自动播放限制Chrome、Safari 等主流浏览器默认禁止无用户交互的自动播放,尤其是带声音的媒体。这不是 bug,是策略。
muted 属性并设 autoplay,多数情况能成功:
play();之后再调用(如循环播放)通常不受限document.hasFocus() 和 document.visibilityState === 'visible' 会影响某些场景下的播放行为,但不是根本解法canplay 或 canplaythrough 就立刻 play() —— 仍可能因无用户手势被拒onerror
error 事件只在资源加载失败时触发(如 404、跨域、格式不支持),但播放中卡顿、解码失败、网络中断等,得靠其他事件组合判断。
waiting:缓冲不足开始等待,持续太久说明网络或服务有问题stalled:浏览器试图获取数据但没进展(比 waiting 更严重)ended:自然播完,但若设置了 loop = true 就不会触发timeupdate:每帧更新一次 currentTime,适合做进度条同步,但别在里面做重操作(触发频繁)networkState(如 NETWORK_NO_SOURCE)和 readyState(如 HAVE_NOTHING)比只捕获 error 更早发现问题video.addEventListener('stalled', () => {
console.log('卡住了,当前 readyState:', video.readyState);
});
video.addEventListener('error', () => {
console.error('资源加载失败,error code:', video.error?.code);
});
Web Audio API
HTMLMediaElement 只能控制播放,不能读取或修改 PCM 数据。要实现音效、频谱分析、实时混音,必须把媒体流接入 AudioContext。
AudioContext.createMediaElementSource(video) 把 当作音频源节点BiquadFilterNode(均衡)、GainNode(音量)、AnalyserNode(FFT 分析)等createMediaElementSource 仅接受已播放过的媒体元素(至少触发过一次 play()),否则报错AudioContext,否则可能处于 suspended 状态const audioCtx = new (window.AudioContext || window.webkitAudioContext)(); const source = audioCtx.createMediaElementSource(video); const analyser = audioCtx.createAnalyser(); source.connect(analyser); analyser.connect(audioCtx.destination);
真正难的不是调用哪个方法,而是理解浏览器对媒体生命周期的约束:从加载、解码、渲染到用户权限,每个环节都有隐式规则。比如 currentTime 设值后没反应?先查 readyState;play() 拒绝?别急着加 try/catch,先看有没有用户手势上下文。这些细节不踩一遍坑,文档读十遍也没用。