WebRTC 在创建点对点(P2P)的连接之前,会先通过信令服务器交换两端的 SDP 和 ICE Candidate,取两者的交集,决定最终的音视频参数、传输协议、NAT 打洞方式等信息。
在完成媒体协商,并且两端网络连通之后,就可以开始传输数据了。
本文示例代码已上传至 Github,有需要的可以随意下载。
在实现一个简单的视频通话之前,还需要了解一些相关术语。
1)SDP
SDP(Session Description Protocal)是一个描述会话元数据(Session Metadata)、网络(Network)、流(Stream)、安全(Security)和服务质量(Qos,Grouping)的 WebRTC协议,下图是 SDP 各语义和字段之间的包含关系。
换句话说,它就是一个用文本描述各端能力的协议,这些能力包括支持的音视频编解码器、传输协议、编解码器参数(例如音频通道数,采样率等)等信息。
下面是一个典型的 SDP 信息示例,其中 RTP(Real-time Transport Protocol)是一种网络协议,描述了如何以实时方式将各种媒体从一端传输到另一端。
=================会话描述====================== v=0 o=alice 2890844526 2890844526 IN IP4 host.anywhere.com s=- =================网络描述====================== c=IN IP4 host.anywhere.com t=0 0 ================音频流描述===================== m=audio 49170 RTP/AVP 0 a=rtpmap:0 PCMU/8000 ================视频流描述===================== m=video 51372 RTP/AVP 31 a=rtpmap:31 H261/90000
2)ICE Candidate
ICE 候选者描述了 WebRTC 能够与远程设备通信所需的协议、IP、端口、优先级、候选者类型(包括 host、srflx 和 relay)等连接信息。
host 是本机候选者,srflx 是从 STUN 服务器获得的候选者,relay 是从 TURN 服务器获得的中继候选者。
在每一端都会提供许多候选者,例如有两块网卡,那么每块网卡的不同端口都是一个候选者。
WebRTC 会按照优先级倒序的进行连通性测试,当连通性测试成功后,通信的双方就建立起了连接。
3)NAT打洞
在收集到候选者信息后,WebRTC 会判断两端是否在同一个局域网中,若是,则可以直接建立链接。
若不是,那么 WebRTC 就会尝试 NAT 打洞。WebRTC 将 NAT 分为 4 种类型:完全锥型、IP 限制型、端口限制型和对称型。
前文候选者类型中曾提到 STUN 和 TURN 两种协议,接下来会对它们做简单的说明。
STUN(Session Traversal Utilities for NAT,NAT会话穿越应用程序)是一种网络协议,允许位于 NAT 后的客户端找出自己的公网地址,当前 NAT 类型和 NAT 为某一个本地端口所绑定的公网端口。
这些信息让两个同时处于 NAT 路由器之后的主机之间建立 UDP 通信,STUN 是一种 Client/Server 的协议,也是一种 Request/Response 的协议。
下图描绘了通过 STUN 服务器获取公网的 IP 地址,以及通过信令服务器完成媒体协商的简易过程。
TURN(Traversal Using Relay NAT,通过 Relay 方式穿越 NAT),是一种数据传输协议,允许通过 TCP 或 UDP 穿透 NAT。
TURN 也是一个 Client/Server 协议,其穿透方法与 STUN 类似,但终端必须在通讯开始前与 TURN 服务器进行交互。
下图描绘了通过 TURN 服务器实现 P2P 数据传输。
CoTurn 是一款免费开源的 TURN 和 STUN 服务器,可以到 GitHub 上下载源码编译安装。
二、信令服务器
通信双方彼此是不知道对方的,但是它们可以先与信令服务器(Signal Server)连接,然后通过它来互传信息。
可以将信令服务器想象成一个中间人,由他来安排两端进入一个房间中,然后在房间中可以他们就能随意的交换手上的情报了。
本文会通过 Node.js 和 socket.io 实现一个简单的信令服务器,完成的功能仅仅是用于实验,保存在 server.js 文件中。
如果对 socket.io 不是很熟悉,可以参考我之前分享的一篇博文,对其有比较完整的说明。
1)HTTP 服务器
为了实现视频通话的功能,需要先搭建一个简易的 HTTP 服务器,挂载静态页面。
注意,在实际场景中,这块可以在另一个项目中执行,本处只是为了方便演示。
const http = require('http'); const fs = require('fs'); const { Server } = require("socket.io"); // HTTP服务器 const server = http.createServer((req, res) => { // 实例化 URL 类 const url = new URL(req.url, 'http://localhost:1234'); const { pathname } = url; // 路由 if(pathname === '/') { res.writeHead(200, { 'Content-Type': 'text/html' }); res.end(fs.readFileSync('./index.html')); }else if(pathname === '/socket.io.js') { res.writeHead(200, { 'Content-Type': 'application/javascript' }); res.end(fs.readFileSync('./socket.io.js')); }else if(pathname === '/client.js') { res.writeHead(200, { 'Content-Type': 'application/javascript' }); res.end(fs.readFileSync('./client.js')); } }); // 监控端口 server.listen(1234);
在上面的代码中,实现了最简易的路由分发,当访问 http://localhost:1234 时,读取 index.html 静态页面,结构如下所示。
<video id="localVideo"></video> <button id="btn">开播</button> <video id="remoteVideo" muted="muted"></video> <script src="./socket.io.js"></script> <script src="./client.js"></script>
socket.io.js 是官方的 socket.io 库,client.js 是客户端的脚本逻辑。
在 remoteVideo 中附带 muted 属性是为了避免报错:DOMException: The play() request was interrupted by a new load request。
最后就可以通过 node server.js 命令,开启 HTTP 服务器。
2)长连接
为了便于演示,指定了一个房间,当与信令服务器连接时,默认就会被安排进 living room。
并且只提供了一个 message 事件,这是交换各端信息的关键代码,将一个客户端发送来的消息中继给其他各端。
const io = new Server(server); const roomId = 'living room'; io.on('connection', (socket) => { // 指定房间 socket.join(roomId); // 发送消息 socket.on('message', (data) => { // 发消息给房间内的其他人 socket.to(roomId).emit('message', data); }); });
因为默认是在本机演示,所以也不会安装 CoTurn,有兴趣的可以自行实现。
三、客户端
在之前的 HTML 结构中,可以看到两个 video 元素和一个 button 元素。
const btn = document.getElementById('btn'); // 开播按钮 const localVideo = document.getElementById('localVideo'); const remoteVideo = document.getElementById('remoteVideo'); const size = 300;
在两个 video 元素中,第一个是接收本地的音视频流,第二个是接收远端的音视频流。
1)媒体协商
在下图中,Alice 和 Bob 通过信令服务器在交换 SDP 信息。
Alice 先调用 createOffer() 创建一个 Offer 类型的 SDP,然后调用 setLocalDescription() 配置本地描述。
Bob 接收发送过来的 Offer,调用 setRemoteDescription() 配置远端描述。
再调用 createAnswer() 创建一个 Answer 类型的 SDP,最后调用 setLocalDescription() 配置本地描述。
而 Bob 也会接收 Answer 并调用 setRemoteDescription() 配置远端描述。后面的代码会实现上述过程。
2)RTCPeerConnection
在 WebRTC 中创建连接,需要先初始化 RTCPeerConnection 类,其构造函数可以接收 STUN/TURN 服务器的配置信息。
// STUN/TURN Servers const pcConfig = { // 'iceServers': [{ // 'urls': '', // 'credential': "", // 'username': "" // }] }; // 实例化 RTCPeerConnection const pc = new RTCPeerConnection(pcConfig);
然后注册 icecandidate 事件,将本机的网络信息发送给信令服务器,sendMessage() 函数后面会介绍。
pc.onicecandidate = function(e) { if(!e.candidate) { return; } // 发送 ICE Candidate sendMessage({ type: 'candidate', label: e.candidate.sdpMLineIndex, id: e.candidate.sdpMid, candidate: e.candidate.candidate }); };
最后注册 track 事件,接收远端的音视频流。
pc.ontrack = function(e) { remoteVideo.srcObject = e.streams[0]; remoteVideo.play(); };
3)长连接
在客户端中,已经引入了 socket.io 库,所以只需要调用 io() 函数就能建立长连接。
sendMessage() 函数就是发送信息给服务器的 message 事件。
const socket = io("http://localhost:1234"); // 发送消息 function sendMessage(data){ socket.emit('message', data); }
本地也有个 message 事件,会接收从服务端发送来的消息,其实就是那些转发的消息。
data 对象有个 type 属性,可创建和接收远端的 Answer 类型的 SDP 信息,以及接收远端的 ICE 候选者信息。
socket.on("message", function (data) { switch (data.type) { case "offer": // 配置远端描述 pc.setRemoteDescription(new RTCSessionDescription(data)); // 创建 Answer 类型的 SDP 信息 pc.createAnswer().then((desc) => { pc.setLocalDescription(desc); sendMessage(desc); }); break; case "answer": // 接收远端的 Answer 类型的 SDP 信息 pc.setRemoteDescription(new RTCSessionDescription(data)); break; case "candidate": // 实例化 RTCIceCandidate const candidate = new RTCIceCandidate({ sdpMLineIndex: data.label, candidate: data.candidate }); pc.addIceCandidate(candidate); break; } });
在代码中,用 RTCSessionDescription 描述 SDP 信息,用 RTCIceCandidate 描述 ICE 候选者信息。
4)开播
为开播按钮注册点击事件,在事件中,首先通过 getUserMedia() 获取本地的音视频流。
btn.addEventListener("click", function (e) { // 获取音视频流 navigator.mediaDevices .getUserMedia({ video: { width: size, height: size }, audio: true }) .then((stream) => { localVideo.srcObject = stream; localStream = stream; // 将 Track 与 RTCPeerConnection 绑定 stream.getTracks().forEach((track) => { pc.addTrack(track, stream); }); // 创建 Offer 类型的 SDP 信息 pc.createOffer({ offerToRecieveAudio: 1, offerToRecieveVideo: 1 }).then((desc) => { // 配置本地描述 pc.setLocalDescription(desc); // 发送 Offer 类型的 SDP 信息 sendMessage(desc); }); localVideo.play(); }); btn.disabled = true; });
然后在 then() 方法中,让 localVideo 接收音视频流,并且将 Track 与 RTCPeerConnection 绑定。
这一步很关键,没有这一步就无法将音视频流推给远端。
然后创建 Offer 类型的 SDP 信息,配置本地描述,并通过信令服务器发送给远端。
接着可以在两个浏览器(例如 Chrome 和 Edge)中分别访问 http://localhost:1234,在一个浏览器中点击开播,如下图所示。
在另一个浏览器的 remoteVideo 中,就可以看到推送过来的画面。
下面用一张时序图来完整的描述整个连接过程,具体内容不再赘述。
参考资料:
What is WebRTC and How to Setup STUN/TURN Server for WebRTC Communication?