WebRTC视频通话需先调用MediaDevices.getUserMedia()获取摄像头权限并显示本地流,再通过RTCPeerConnection建立连接、交换SDP与ICE候选者实现信令,最后绑定远程流到video元素播放;需注意HTTPS、STUN/TURN配置、autoplay/muted设置及浏览器兼容性。
使用 MediaDevices.getUserMedia() 是 WebRTC 视频通话的第一步。它请求用户授权访问摄像头和麦克风,并返回一个 MediaStream 对象:
{ video: true, audio: true }
元素的 srcObject 属性即可实时显示画面示例代码:
navigator.mediaDevices.getUserMedia({ video: true, audio: true }) .then(stream => { const video = document.getElementById('localVideo'); video.srcObject = stream; }) .catch(err => console.error('访问摄像头失败:', err));
RTCPeerConnection 是 WebRTC 的核心,负责媒体传输。但它本身不处理连接发现和协商,需要你自行实现信令(signaling)——即在两个客户端之间传递 SDP 和 ICE 候选者。
stun:stun.l.google.com:19302),用于 NAT 穿透createOffer() 生成本地会话描述(SDP),设置为本地描述后通过信令通道发送给对方setRemoteDescription(),再调用 createAnswer() 返回应答 SDPicecandidate 事件,将各自收集到的 ICE 候选者通过信令通道互发当远端成功加入连接并开始传输媒体流时,RTCPeerConnection 会触发 track 事件(或旧版的 addstream):
pc.ontrack,从事件参数中提取 event.streams[0]
元素的 srcObject,即可播放对方视频setRemoteDescription 之后再添加 track 监听,否则可能错过初始流实际开发中容易遇到黑屏、无声、连接失败等问题,关键点在于:
video 元素设置了 autoplay 和 muted(尤其在自动播放策略严格的环境下)chrome://webrtc-internals 查看连接状态、带宽、丢包等实时指标不复杂但容易忽略