调用 MediaDevices.getUserMedia() 不报错需满足 HTTPS/localhost 环境且由用户手势触发;传入明确约束对象(如 {video: true});用 .catch() 处理 NotAllowedError 或 NotFoundError。
调用 getUserMedia() 前必须满足两个硬性条件:页面运行在 https://(或 localhost),且用户已主动触发(比如点击按钮)。直接在页面加载时自动调用会失败,浏览器会静默拒绝并抛出 NotAllowedError 或 SecurityError。
click、tap)后发起,不能放在 setTimeout 或 load 事件里“绕过”{ video: true },不要传空对象 {} —— 某些旧版 Chrome 会当作请求音频+视频,然后因缺少麦克风权限而失败navigator.mediaDevices.getUserMedia(...) 返回 Promise,.catch() 中检查 err.name 是 NotAllowedError(用户点拒)还是 NotFoundError(没摄像头)拿到 MediaStream 后不能直接赋给 src,得用 URL.createObjectURL() 生成临时 URL。这个 URL 只在当前文档生命周期内有效,页面关闭或显式释放前不会自动销毁,不手动清理会导致内存泄漏。
const video = document.getElementById('myVideo');
navigator.mediaDevices.getUserMedia({ video: true })
.then(stream => {
video.srcObject = stream; // ✅ 推荐:现代标准,无需 createObjectURL
// video.src = URL.createObjectURL(stream); // ❌ 已废弃,且需手动 revoke
});
video.srcObject = stream 是当前唯一推荐方式,兼容 Chrome 53+、Firefox 50+、Safari 11+src 属性(比如某些老框架强制要求字符串 src),必须配对调用 URL.revokeObjectURL(video.src),通常在 stream.getTracks().forEach(t => t.stop()) 后执行autoplay 和 muted(尤其音频流),否则 Safari 和新版 Chrome 可能因策略阻止自动播放常见问题是录制时没指定 mime type,导致生成的 Blob 缺少正确 type,下载后系统无法识别。Chrome 默认用 video/webm,但 Firefox 可能用 video/webm;codecs=vp9,而移动端 Safari 根本不支持 MediaRecorder(截至 iOS 16.5)。
new MediaRecorder(stream, { mimeType: 'video/webm;codecs=vp8' })
blob 要用 URL.createObjectURL(blob) 才能赋给 的 src;直接 blob.toString() 没意义dataavailable 事件可能触发多次,blob 是分片的,得用数组收集再 new Blob(chunks, { type: mimeType }) 合并MediaRecorder 原生支持 —— video/mp4 在绝大多数浏览器中仍不可用,得靠 FFmpeg.wasm 后处理默认 AudioContext 使用系统默认缓冲区大小(常为 1024 或 2048 sample),导致明显延迟(>100ms)和偶发爆音。关键不是“怎么连节点”,而是“怎么压低延迟并稳住采样率”。
{ latencyHint: '
interactive' }(Chrome/Firefox 支持),比默认值更激进地降低缓冲区stream.getAudioTracks()[0] 创建 MediaStreamAudioSourceNode,别用 createMediaStreamSource() 配错上下文audioprocess 事件(已废弃)或 ScriptProcessorNode 中做重操作 —— 改用 Worklet(AudioWorklet),但需提前注册,且不支持 SafariWebRTC 音视频链路本身就有不可忽略的固有延迟(编码、网络、解码),纯前端 JS 能优化的只是采集和渲染环节。真要低延迟,得从信令、编解码参数、STUN/TURN 服务器部署一起动刀,JS 层只是冰山一角。