阅读 1164

WebRTC源码研究(1)WebRTC架构

#WebRTC系列文章

  1. WebRTC源码研究(1)WebRTC架构
  2. WebRTC源码研究(2)webrtc源码目录结构
  3. WebRTC源码研究(3)webrtc运行机制
  4. WebRTC源码研究(4)web服务器工作原理和常用协议基础
  5. WebRTC源码研究(5)Nodejs搭建环境

WebRTC源码研究(1)WebRTC架构

本人最近主要聚焦于音视频领域的学习,学习了很多相关视频和书籍,目前还在学习中,写的这些博客很多内容都是来源于慕课网李超老师的视频,想学习音视频的强烈建议去购买李超老师的视频,讲的很好,价格不贵 ,购买李超老师的视频点击这里

WebRTC 是一个音视频通信的百宝箱,给音视频处理和即时通讯提供了成熟的解决方案。关键是这个方案的源码是开源的,你可以深入研究这些源码,学习里面的解决疑难问题的算法,应用在你的项目中。 WebRTC是一个非常优秀的多媒体框架,具有跨平台的特性。

更多详情请参考:

1. WebRTC简介

WebRTC,名称源自网页即时通信(英语:Web Real-Time Communication)的缩写,是一个支持网页浏览器进行实时语音对话或视频对话的API。它于2011年6月1日开源并在Google、Mozilla、Opera支持下被纳入万维网联盟的W3C推荐标准。

WebRTC是为了解决 Web 端无法捕获音视频的能力,并且提供了 peer-to-peer(就是浏览器间)的视频交互。

WebRTC汇集了先进的实时通信技术,包括:先进的音视频编解码器(Opus和VP8/9),强制加密协议(SRTP和DTLS)和网络地址转换器(ICE&STUN)。

  1. WebRTC实现了基于网页的视频会议,标准是WHATWG 协议,目的是通过浏览器提供简单的javascript就可以达到实时通讯(Real-Time Communications (RTC))能力。
  2. WebRTC(Web Real-Time Communication)项目的最终目的主要是让Web开发者能够基于浏览器(Chrome\FireFox...)轻易快捷开发出丰富的实时多媒体应用,而无需下载安装任何插件,Web开发者也无需关注多媒体的数字信号处理过程,只需编写简单的Javascript程序即可实现,W3C等组织正在制定Javascript 标准API,目前是WebRTC 1.0版本,Draft状态;另外WebRTC还希望能够建立一个多互联网浏览器间健壮的实时通信的平台,形成开发者与浏览器厂商良好的生态环境。同时,Google也希望和致力于让WebRTC的技术成为HTML5标准之一,可见Google布局之深远。
  3. WebRTC提供了视频会议的核心技术,包括音视频的采集、编解码、网络传输、显示等功能,并且还支持跨平台:windows,linux,mac,android。

2. WebRTC的能力

根据最初的定义,WebRTC被指定为P2P(peer-to-peer)技术。

自成立以来,WebRTC已经大大降低了Web开发人员通过简单的Java API构建实时通信应用程序的难度。 但要清楚,WebRTC是一种技术,而不是一个完整的应用程序或服务。我们可以认为WebRTC就是音视频领域的一个百宝箱,它并不是一个创新的技术,而是将以往的音视频技术一统江湖,融合在一起,做了一定的优化处理。它里面关于音视频处理的算法很多都可以抠出来用在不同场合。

目前来看,WebRTC在电视会议和直播领域有很大的潜力。

虽然WebRTC最初被设想为纯粹的P2P技术,但许多日常业务应用程序需要集中式媒体功能,通过P2S(peer-to-server)架构提高可靠性、效率或扩展性。 对于P2P和P2S架构之间的问题对于构建WebRTC应用程序很重要。

WebRTC 为了不限制服务器相关技术发展,并没有将信令SDP 等服务器技术统一标准,每个开发者可以根据自己的情况去选择信令服务器。

WebRTC 是一个音视频处理+ 即时通讯的开源库,它是一个非常优秀的多媒体框架,而且还跨平台。在音视频领域有两个泰山北斗级别的开源库,一个是FFmpeg, 另一个就是WebRTC 。他们拥有各自不同的侧重点,优势。FFmepg的侧重点是多媒体的编辑,音视频的编解码等对视频文件的处理。 而对于WebRTC, 它的优势是整个网络中实现音视频的传输,对网络的抖动,丢包,网络的评估,在网络层面的各自算法优化保证了音视频传输的稳定,此外它还可以对网络传输经常发生的回音等问题优化处理,如回音消除,降噪。

总的来说,WebRTC能做下面这些事情:

  • 音视频实时互动
  • 游戏,即时通讯,文件传输等等
  • 它是一个百宝箱,传输,音视频处理(回音消除,降噪)

2.1 抓住属于WebRTC的5G时代风口

2.1.1 浏览器的支持情况

到目前为止,几乎所有主要的浏览器都兼容WebRTC,除了IE浏览器外,WebRTC现在得到了所有主要浏览器的支持和采用,包括谷歌Chrome、苹果Safari、Mozilla Firefox 、QQ浏览器、360浏览器和Microsoft Edge。

支持的浏览器

2.1.2 大厂的加入

  • 威胁传统音视频提供商 声网(跨国,跨印度)、即构科技、融云。一波新的会议供应商正在使用WebRTC技术来勇闯互联网,对传统音视频提供商给予了致命的一击。

  • WebRTC可靠性和易用性(声网在web端调用的是标准的API(WebRTC api) W3C)

  • WebRTC通过web浏览器普及会议体验,支持点击开始,并消除了额外软件的麻烦,从而使这种体验成为可能。

2.1.3 WebRTC应用案例

2.1.3.1 教育行业解决方案

教育行业解决方案

2.1.3.2 互动电商解决方案
互动电商解决方案
2.1.3.3 企业视频协作/OA办公解决方案
企业视频协作/OA办公解决方案
2.1.3.4

3. webrtc架构

我们先来看一下网上广为流传的webrtc架构图,这张图来自WebRTC官网,因为限制了访问google,官网无法直接访问,可以参考WebRTC中文网

webrtc架构

总体上来说看上面图可以知道整个浅绿色部分都属于WebRTC核心架构层,它封装各种提供给web端使用的Web API层接口。紫色的部分属于应用层,使用核心层提供的API。你可以在应用层扩展相关API,调用WebRTC核心层的接口。

WebRTC核心层又分为四层:

  • WebRTC C C++ API (PeerConnection): 这层的API相对比较少,最主要就是实现P2P连接。在PeerConnection里面又包含了很多接口,如传输质量,传输质量报告,统计数据,各种流都是封装在PeerConnection模块里面。除此之外主要有音视频采集,音视频传输,非音视频数据传输等。
  • Session Management/ Abstract signaling (Session): 会话层,用来管理音视频,非音视频数据传输,处理相关逻辑。
  • 最核心的第三层,包含:音频引擎,视频引擎,传输,3大核心模块。
  • 最底层是与硬件相关的硬件适配层:这层包含:音频的采集和渲染,视频的捕捉,网络IO。注意到上图中底层的这个三个模块都是画的虚线,表示这些模块是可以自己去实现的,可以重载的,这样大大增加WebRTC的灵活性,为跨平台提供了基础。

WebRTC最核心的三大模块:Voice Engine, Video Engine , Transport,这三个层中Voice Engine只处理音频相关的技术,Video Engine处理视频相关的技术,音频和视频是相互独立的,一个重要的技术:音视频同步并不包含在这里面。

Voice Engine 音频引擎包含3大模块:

  • iSAC/iLBC Codec: 这个模块主要是编解码,iSAC/iLBC 是jips公司开发的,另外有我们熟悉的音频G711, G726,AAC, Opus 目前使用的最多也是Opus,几年前AAC也是很火的,你可以自己把AAC模块加入到WebRTC里面.其中WebRTC中使用的是Opus,后面的会详细讲解这块的知识。
  • NetEQ for voice: NetEQ实际上是一个音频缓冲的buffer,用于做网络的适配。如我们做防止音频抖动,这里面涉及了很多相关的算法。
  • Echo Canceler/ Noise Reduction: 这里面解决了很多做音频头疼的问题:回音消除,降噪等问题处理算法。回音消除是困扰很多公司的一个头疼的技术,但WebRTC里面提供了非常成熟,稳定的回音消除算法,值得好好研究,应用到自己的产品中。其实很多算法工程师做的也是利用像WebRTC一样的开源代码,自己调一些参数,来提高音频质量。

Video Engine 视频引擎包含3大模块:

  • VP8 Codec: 这块主要是视频编解码器,VP8,VP9都是google开发出来的,之前WebRTC最先支持的是自己家的VP8,后面也支持了H264,H265, Open H264 , xh264(在官方的WebRTC里面是不支持的,如果你想支持可以自己安装Open H264的模块添加进去)
  • Video jitter buffer:视频jitter buffer跟音频buffer一样也是用来防止视频抖动的。
  • Image enhancements: 这块是图像处理相关的,如图像增强处理,WebRTC来说图像增强这一块做的比较薄。它把相应的接口也都留出来了,如果你想做一些美颜,贴图,滤镜处理,你也可以在提供的预留接口中去实现。像人脸视频这些接口都有,你都可以加入进去。

Transport 传输模块包含3大模块: 传输底层用的是UDP 协议,因为音视频传输对及时性要求更高,允许部分丢帧,WebRTC充分利用的UDP的不管控能力,利用各种成熟的算法保证高质量的音视频传输,可以自动适配码率变换。所有音视频的数据的发送,接收都是通过传输层去做的,从图中可以看出来,WebRTC的架构层次是非常清晰的。

  • SRTP: 一般正常视频传输都是使用RTP协议,但是由于浏览器对安全性要求比较高,增加了加密这块的处理,采用SRTP协议。还有控制流的传输的协议RTCP,将相应的数据发送,接收报告发送给对方,这样对方就可以做流控处理。
  • Multplexing:这里主要是多个流复用同一个通道。
  • P2P (STUN + TURN + ICE) : 这里主要是P2P相关的技术,这是WebRTC最核心的技术,像以前做安防这块的P2P技术都是属于各个公司最核心的技术,现在WebRTC的源码这里面这块技术非常成熟,后面也会详细介绍这块打洞的技术。

整个传输层包括了对线路的检测,网络丢包,抖动,流控 ,NAT穿透打洞等等非常复查的技术都实现了非常成熟的方案。学好这块技术是非常有用的。

WebRTC传输层这块还实现了通过计算去估算你的网络带宽,不仅仅可以实现稳定的音视频传输,还可以传输其他非音视频数据,如文件,文本等二进制数据都可以传输。

需要注意的是,在WebRTC的核心层是没有视频的渲染的,视频的渲染需要应用层去做。

通过上面讲解,我们对WebRTC具备哪些能力,有了一个大致的理解,接下来我们来细分每个模块的功能项,讲解里面涉及的相关技术,知识,最后通过分析源码的方式更深入的理解,这样我们就可以自己编写代码,在项目中实战了。

3.1 Your Web App

Web开发者开发的程序,Web开发者可以基于集成WebRTC的浏览器提供的web API开发基于视频、音频的实时通信应用。

3.2 Web API

面向第三方开发者的WebRTC标准API(Javascript),使开发者能够容易地开发出类似于网络视频聊天的web应用,这些API可分成Network Stream APIRTCPeerConnectionPeer-to-peer Data API三类。WebRTC 标准官方文档

  • Network Stream API
  1. MediaStream:用来表示一个媒体数据流。
  2. MediaStreamTrack: 在浏览器中表示一个媒体源。
  • RTCPeerConnection
  1. RTCPeerConnection: 一个RTCPeerConnection对象允许用户在两个浏览器之间直接通讯。
  2. RTCIceCandidate :表示一个ICE协议的候选者。
  3. RTCIceServer:表示一个ICE Server。
  • Peer-to-peer Data API
  1. DataChannel:数据通道( DataChannel)接口表示一个在两个节点之间的双向的数据通道 。

3.3 WebRTC Native C++ API

本地C++ API层,使浏览器厂商容易实现WebRTC标准的Web API,抽象地对数字信号过程进行处理。提供给浏览器开发者使用来开发JavaScript API。

3.4 Transport / Session

Session 组件是基于libjingle会话协商 + NAT穿透组件库 )开发 传输/会话层: 会话层组件采用了libjingle库的部分组件实现,无须使用xmpp/jingle协议

  • RTP Stack协议栈: Real Time Protocol
  • P2P(ICE + STUN + TURN):用来实现点对点传输,可以用来建立不同类型网络间的呼叫连接。
  • Session Management:一个抽象的会话层,提供会话建立和管理功能。该层协议留给应用开发者自定义实现。

Transport / Session架构

3.5 VoiceEngine

音频引擎是包含一系列音频多媒体处理的框架,包括从视频采集卡到网络传输端等整个解决方案。 VoiceEngine是WebRTC极具价值的技术之一,是Google收购GIPS公司后开源的。在VoIP上,技术业界领先.

  • iSAC : Internet Speech Audio Codec 针对VoIP和音频流的宽带和超宽带音频编解码器,是WebRTC音频引擎的默认的编解码器 采样频率:16khz,24khz,32khz;(默认为16khz) 自适应速率为10kbit/s ~ 52kbit/s; 自适应包大小:30~60ms; 算法延时:frame + 3ms
  • iLBC : Internet Low Bitrate Codec VoIP音频流的窄带语音编解码器 采样频率:8khz; 20ms帧比特率为15.2kbps 30ms帧比特率为13.33kbps 标准由IETF RFC3951和RFC3952定义
  • NetEQ for Voice : 针对音频软件实现的语音信号处理元件 NetEQ算法:自适应抖动控制算法以及语音包丢失隐藏算法。使其能够快速且高解析度地适应不断变化的网络环境,确保音质优美且缓冲延迟最小。 是GIPS公司独步天下的技术,能够有效的处理由于网络抖动和语音包丢失时候对语音质量产生的影响。 PS:NetEQ 也是WebRTC中一个极具价值的技术,对于提高VoIP质量有明显效果,加以AEC\NR\AGC等模块集成使用,效果更好。
  • Acoustic Echo Canceler (AEC): 回声消除器是一个基于软件的信号处理元件,能实时的去除mic采集到的回声。
  • Noise Reduction (NR) : 噪声抑制也是一个基于软件的信号处理元件,用于消除与相关VoIP的某些类型的背景噪声(嘶嘶声,风扇噪音等等… …)

WebRTC的音频部分,包含设备、编解码(iLIBC/iSAC/G722/PCM16/RED/AVT、NetEQ)、加密、声音文件、声音处理、声音输出、音量控制、音视频同步、网络传输与流控(RTP/RTCP)等功能。

  • 音频设备---audio_device : 源代码在webrtc\modules\audio_device\main目录下,包含接口和各个平台的源代码。在windows平台上,WebRTC采用的是Windows Core Audio和Windows Wave技术来管理音频设备,还提供了一个混音管理器。利用音频设备,可以实现声音输出,音量控制等功能。

  • 音频编解码---audio_coding : 源代码在webrtc\modules\audio_coding目录下。WebRTC采用iLIBC/iSAC/G722/PCM16/RED/AVT编解码技术。WebRTC还提供NetEQ功能---抖动缓冲器及丢包补偿模块,能够提高音质,并把延迟减至最小。另外一个核心功能是基于语音会议的混音处理。

  • 声音加密--voice_engine_encryption : 和视频一样,WebRTC也提供声音加密功能。声音文件该功能是可以用本地文件作为音频源,支持的格式有Pcm和Wav。 同样,WebRTC也可以录制音频到本地文件。

  • 声音处理--audio_processing : 源代码在webrtc\modules\audio_processing目录下。声音处理针对音频数据进行处理,包括回声消除(AEC)、AECM(AEC Mobile)、自动增益(AGC)、降噪(NS)、静音检测(VAD)处理等功能,用来提升声音质量。

  • 网络传输与流控 : 和视频一样,WebRTC采用的是成熟的RTP/RTCP技术。

3.5.1 音频、视频图像处理的主要数据结构

定义类型 头文件 简介 路径
Structures common_types.h 列出VoiceEngine & VideoEngine常见的结构
Enumerators common_types.h 列出VoiceEngine和VideoEngine通用的枚举数
Classes common_types.h 列出VoiceEngine和VideoEngine常见的类
class VoiceEngine voe_base.h 如何使用VoiceEngine类中的工厂方法为VoiceEngine分配和释放资源。它还列出了将文件跟踪和/或跟踪作为回调消息启用所需的api
class VideoEngine vie_base.h 如何使用VideoEngine类中的工厂方法为VideoEngine分配和释放资源。它还列出了将文件跟踪和/或跟踪作为回调消息启用所需的api

3.5.2 音频引擎(VoiceEngine)模块 APIs

下表列的是目前在 VoiceEngine中可用的sub APIs

定义类型 头文件 简介 路径
VoEAudioProcessing voe_audio_processing.h 增加对噪声抑制(NS),自动增益控制(AGC)和回声控制(EC)的支持。也包括接收方VAD。
VoEBase voe_base.h 启用全双工VoIP使用G.711。注意:必须始终创建此API
VoECallReport voe_call_report.h 增加对呼叫报告的支持,该报告包含心跳检测的数量、RTT度量和Echo度量。
VoECodec voe_codec.h 增加非默认编解码器(例如iLBC, iSAC, G.722等),语音活动检测(VAD)支持。
VoEDTMF voe_dtmf.h 增加电话事件传输,DTMF音频生成和电话事件检测。(电话事件包括DTMF。)
VoEEncryption voe_encryption.h 增加外部加密/解密支持扩展。
VoEErrors voe_errors.h 声音引擎的错误代码
VoEExternalMedia voe_external_media.h 添加对外部媒体处理的支持,并允许利用外部音频资源。
VoEFile voe_file.h 添加文件回放、文件录制和文件转换功能。
VoEHardware voe_hardware.h 增加声音设备处理,CPU负载监控和设备信息功能。
VoENetEqStats voe_neteq_stats.h 添加缓冲区统计功能。
VoENetwork voe_network.h 增加外部传输,端口和地址过滤,窗口QoS支持和包超时通知。
VoERTP_RTCP voe_rtp_rtcp.h 增加支持RTCP发送者报告,SSRC处理,RTP/RTCP统计,前向错误纠正(FEC), RTCP应用,RTP捕获和RTP保持活着。
VoEVideoSync voe_video_sync.h 添加RTP头修改支持,播放延迟调优和监控。
VoEVolumeControl voe_volume_control.h 添加扬声器音量控制、麦克风音量控制、静音支持和其他立体声缩放方法。

3.6 VideoEngine

VideoEngine是WebRTC视频处理引擎 VideoEngine是包含一系列视频处理的整体框架,从摄像头采集视频到视频信息网络传输再到视频显示整个完整过程的解决方案。

  • VP8 视频图像编解码器,是WebRTC视频引擎的默认的编解码器 VP8适合实时通信应用场景,因为它主要是针对低延时而设计的编解码器。 PS:VPx编解码器是Google收购ON2公司后开源的,VPx现在是WebM项目的一部分,而WebM项目是Google致力于推动的HTML5标准之一
  • Video Jitter Buffer 视频抖动缓冲器,可以降低由于视频抖动和视频信息包丢失带来的不良影响。
  • Image enhancements 图像质量增强模块 对网络摄像头采集到的图像进行处理,包括明暗度检测、颜色增强、降噪处理等功能,用来提升视频质量。

WebRTC的视频部分,包含采集、编解码(I420/VP8)、加密、媒体文件、图像处理、显示、网络传输与流控(RTP/RTCP)等功能。

  • 视频采集---video_capture: 源代码在webrtc\modules\video_capture\main目录下,包含接口和各个平台的源代码。在windows平台上,WebRTC采用的是dshow技术,来实现枚举视频的设备信息和视频数据的采集,这意味着可以支持大多数的视频采集设备;对那些需要单独驱动程序的视频采集卡(比如海康高清卡)就无能为力了。视频采集支持多种媒体类型,比如I420、YUY2、RGB、UYUY等,并可以进行帧大小和帧率控制。

  • 视频编解码---video_coding:源代码在webrtc\modules\video_coding目录下。WebRTC采用I420/VP8编解码技术。VP8是google收购ON2后的开源实现,并且也用在WebM项目中。VP8能以更少的数据提供更高质量的视频,特别适合视频会议这样的需求。

  • 视频加密--video_engine_encryption : 视频加密是WebRTC的video_engine一部分,相当于视频应用层面的功能,给点对点的视频双方提供了数据上的安全保证,可以防止在Web上视频数据的泄漏。视频加密在发送端和接收端进行加解密视频数据,密钥由视频双方协商,代价是会影响视频数据处理的性能;也可以不使用视频加密功能,这样在性能上会好些。视频加密的数据源可能是原始的数据流,也可能是编码后的数据流。估计是编码后的数据流,这样加密代价会小一些。

  • 视频媒体文件--media_file:源代码在webrtc\modules\media_file目录下。该功能是可以用本地文件作为视频源,有点类似虚拟摄像头的功能;支持的格式有Avi。 另外,WebRTC还可以录制音视频到本地文件,比较实用的功能。

  • 视频图像处理--video_processing : 源代码在webrtc\modules\video_processing目录下。视频图像处理针对每一帧的图像进行处理,包括明暗度检测、颜色增强、降噪处理等功能,用来提升视频质量。

  • 视频显示--video_render: 源代码在webrtc\modules\video_render目录下。在windows平台,WebRTC采用direct3d9和directdraw的方式来显示视频。在Mac平台采用metal来渲染视频,在移动端IOS,Android使用对应的Opengl es渲染。

  • 网络传输与流控 : 对于网络视频来讲,数据的传输与控制是核心价值。WebRTC采用的是成熟的RTP/RTCP技术。

3.6.1 视频引擎(VideoEngine)模块 APIs

定义类型 头文件 简介 路径
ViEBase vie_base.h 创建VideoEngine实例、通道和VoiceEngine交互的基本功能。
注意:必须始终创建此API。
ViECapture vie_capture.h 添加对捕获设备分配以及捕获设备功能的支持。
ViECodec vie_codec.h 增加非默认编解码器,编解码器设置和包丢失功能。
ViEEncryption vie_encryption.h 增加外部加密/解密支持。
ViEErrors vie_errors.h 视频引擎的错误代码
ViEExternalCodec vie_external_codec.h 增加了对使用外部编解码器的支持。
ViEFile vie_file.h 增加对文件记录,文件播放,背景图像和快照的支持
ViEImageProcess vie_image_process.h 增加效果滤镜,缩小,去噪和色彩增强。
ViENetwork vie_network.h 增加发送和接收功能,外部传输,端口和地址过滤,窗口QoS支持,包超时通知和改变网络设置。
ViERender vie_render.h 增加了渲染功能。
ViERTP_RTCP vie_rtp_rtcp.h 处理RTP/RTCP统计,NACK/FEC,保持活动功能和关键帧请求方法。

4. webrtc源码结构

WebRTC 源码作为 Chromium 的一部分,更新速度非常快,这得益于 Google 对音视频通信的大力推广。WebRTC 源码的结构也变化很快,主要体现在以下几方面:

  • 比较源码版本 m50 和 m66,在编译工具上发生了变化。老版本是通过 GYP 来生成 ninja 文件,新版本是通过 gn 生成 ninja 文件。
  • 在目录结构上发生了变化,老版本中支持的一些功能在新版本中删除了。
  • 随着 c++11,c++14,c++17 新标准的推出,WebRTC 在新版本中逐渐支持了新标准中的语法功能,使得代码变得更简洁、易维护。

其实webrtc在每个对应的平台上的源码都不相同,只是整体协议框架是一样的,在每个平台上的实现方式不一样,如android,ios ,js都实现了同样的协议功能,但是编码是使用每个平台自己的特性。

下面看通过知乎大神陈子兴的一个图来了解一下整体结构图如下:

在这里插入图片描述

4. 1 目录结构

如果按照通常层次化的思维来组织,从下到上,大概分以下几个层次:

  • OS 跨平台适配、硬件设备访问、第三方库 Wrapper 层: 包括网络层、操作系统 API 的跨平台封装,音频设备、视频设备封装,音频、视频 codec,DTLS 的第三方实现等。
  • 网络传输层: 这里包括 candidate 收集,stun/turn 协议的实现,dtls、rtp 网络连接的建立,sctp 连接的建立等。
  • 通道层: 主要包含传输通道也就是 BaseChannel 层 和 媒体通道 也就是 MediaChannel 层。BaseChannel 是和 PeerConnection、Transport 层对接。MediaChannel 实现其实在音视频引擎里面,是 BaseChannel 和引擎的桥梁。
  • RTP_RTCP : 主要是流控
  • Audio Engine、Video Engine 是音视频引擎层,音视频处理。
  • 音视频编解码器,这也是 WebRTC 自己的一个抽象,真正的编解码库还是依赖第三方库。
  • PeerConnection、MediaStream 主要是对 jsep 协议的实现。
  • PeerConnectionInterface 是一个对外抽象接口类设计。

m66 版本的代码为例,目录如下:

目录名 模块内容 简介 路径
api 提供了对外的接口,音视频引擎层和 Module 直接的接口。 -- --
audio 音频流的一部分抽象,属于引擎的一部分逻辑。 -- --
base 这一部分还没有学习到,属于 Chromium 项目的一部分,貌似 WebRTC 中用的并不多。 -- --
build 编译脚本。这里需要注意的是,不同平台的代码在下载的时候,获取的工具集是不一样的。 -- --
build_overrides 编译工具。 -- --
buildtools 编译工具链。 -- --
call 主要是媒体流的接口抽象。为媒体引擎和 codec 层提供桥接。这里说的媒体流是 RTP 流。pc 层也抽象了媒体流,那是编码前、或者解码后。 -- --
common_audio 音频算法实现,比如 fft。 -- --
common_video 视频算法实现,比如 h264 协议格式。 -- --
data 测试数据 -- --
examples WebRTC 使用的例子。提供了 peerconnection_client、peerconnection_server、stun、turn 的 demo。 -- --
help 帮助信息。 -- --
infra 工具。 -- --
logging WebRTC 的 log 库。 -- --
media 媒体引擎层,包括音频、视频引擎实现。 -- --
modules WebRTC 把一些逻辑比较独立的抽象为 Module,利于扩展维护。 -- --
ortc 媒体描述协议,类似 sdp 协议。 -- --
out build 输出目录,这是 webrtc 官方编译指导中示范目录。 -- --
p2p 主要是实现 candidate 收集,NAT 穿越。 -- --
pc 实现 jsep 协议。 -- --
resources 测试数据 -- --
rtc_base 包括 Socket、线程、锁等 OS 基础功能实现。 -- --
rtc_tools 网络监测工具、音视频分析工具。很多工具都是脚本实现。 -- --
sdk 主要是移动端相关实现。 -- --
stats WebRTC 统计模块实现。 -- --
style-guide 编码规范说明 -- --
system_wrappers OS 相关功能的封装,比如 cpu、clock 等。 -- --
test 单元测试代码实现,用 gmock -- --
testing gmock、gtest等源码,属于整个 Chromium 项目。 -- --
third_party 第三方库依赖。比如,boringssl,abseil-cpp,libvpx等 -- --
tools 公共工具集,整个 Chromium 项目依赖的。 -- --
tools_webrtc WebRTC 用到的工具集。比如代码检查 valgrind 的使用。 -- --
video 视频 RTP 流的抽象接口,属于视频引擎的一部分。 -- --

4.2 核心模块

4.2.1 PeerConnection:

PeerConnection 的主要实现逻辑就是在 WebRTC 源码的 pc 目录下。

一切都从 PeerConnectionFactory 和 PeerConnection 开始,对外提供 PeerConnectionFactoryInterface 和 PeerConnectionInterface 两个接口类。Factory 类,顾名思义就是创建 PeerConnection 的,下来我们只讨论 PeerConnection。

也许你已经非常熟悉 WebRTC 的 JavaScript 接口。比如,RTCPeerConnection,setLocalDescription、setRemoteDescription、createOffer、createAnswer 等,没错这些。JavaScript 接口的 Native 实现就是在 PeerConnection 中完成的,它也有对应的一套接口。JavaScript 这套接口实现规范是JSEP。 可以说是把这套规范的模型都给实现了。

WebRTC 终端之间的通信协议是 ICE 协议,书包格式采用 SDP 协议。PeerConnection 实现了 SessionDescription 的逻辑。

PeerConnection 抽象了 RtpTransceiver,RtpSender、RtpReceiver 模型,对应了 sdp 中描述的媒体的实现。

4.2.2 Module

WebRTC 将逻辑功能独立、内聚性、复用性强的部分单独抽象为模块。模块在 WebRTC 源码的 modules 目录下,主要是音视频设备、codec、流控等。

4.2.3 网络传输模块:libjingle

WebRTC重用了libjingle的一些组件,主要是network和transport组件

5 WebRTC学习资料

5.1 书籍

本书的作者是 艾伦 B.约翰斯顿 (Alan B.Johnston) 丹尼尔 C.伯内特 (Daniel C.Burnett) 。 第三版展示了如何实现浏览器之间直接发送实时文本的数据通道功能。此外,还涉及 浏览器媒体协商过程中的完整描述(Firefox和Chrome的SDP会话描述),如何使用 Wireshark来监控WebRTC协议的注意事项以及例子捕捉。另外,支持NAT和防火墙穿透 的TURN服务器也是第三版新加入的内容。

WebRTC权威指南

  • 《Learning WebRTC》 中文版:对于前端开发人员是一个很好的入门书籍。对相关传输层的开发介绍需要读者参考更多相关资料。

本书作者是丹·里斯蒂克 (Dan Ristic) (作者)。它更像是一份简单的教程,一步步带你开 发一个简单的应用。并且,在书本中还加入了如果做文件共享功能的示例。

Learning WebRTC》 中文版

5.2 大神博客

5.3 Demo实例代码

下面几个是WebRTC开发者社区的:

几个跨平台开发中可用的 WebRTC Demo:

  • Flutter + WebRTC Demo:Flutter WebRTC plugin ,支持 iOS、Android。 有比较高的星星哦。

    Flutter + WebRTC Demo 简介

  • React Native + Webrtc Demo:一个 React Native 的 WebRTC module , 支持 iOS 和Android平台;支持Video / Audio / Data Channels.. 有不错的星星数2.8k

React Native + Webrtc Demo

  • Xamarin + WebRTC : 一个基于 WebRTC 的 iOS 视频通话 App,通过 Xamarin 开发. 这个作者本身是微软 Xamarin 团队的. 目前星星数量不多。使用Xamarin的基于WebRTC的本地iOS视频聊天应用。
    Xamarin + WebRTC

webrtc-uwp PeerCC-Sample:这个例子实现的是WebRTC UWP(Universal Windows Platform) App 包含PeerConnection示例WebRTC示例,用于在两个对等点之间建立音频/视频调用。它包括一个预编译的信号服务器,并引用了WebRTC UWP NuGet包,这使它成为在UWP上启动和运行WebRTC的最快方式。这个示例还包括Unity支持以及针对HoloLens和混合现实开发的特性。对于引用完整的WebRTC UWP源代码而不是NuGet包的相同示例,请参见https://github.com/webrtc-uwp/PeerCC。它基于https://webrtc.org的原始PeerConnection示例。

webrtc-uwp PeerCC-Sample

  • RTCStartupDemo :一套超级简单的信令服务器,以及配套的完全基于 WebRTC 官方 API 的客户端 demo 示例代码(含:Web/Android/iOS/Windows 全平台)。这是一个针对webrtc初学者的启动演示,包括一个基于socket.io套接字的简单信号服务器和一些客户端在Web/Android/iOS/Windows平台上演示。

    RTCStartupDemo

  • meething-ml-camera :为基于 Web 的视频通话,通过机器学习生成虚拟形象

meething-ml-camera

  • ShareDrop : 一个基于 WebRTC 实现的 HTML5 版 Airdrop,可用于用户点对点传输文件。在这个项目中,用到了 WebRTC peer-to-peer 文件传输、WebRTC 信令,以及 Firebase .

ShareDrop

  1. ShareDrop是一个受苹果AirDrop服务启发的web应用程序。它允许你直接在设备之间传输文件,而不需要先将它们上传到任何服务器。它使用WebRTC进行安全点对点文件传输,使用Firebase进行存在管理和WebRTC信号发送。
  2. ShareDrop允许你在没有任何配置的情况下将文件发送到同一本地网络中的其他设备(即具有相同公共IP地址的设备)——只需在所有设备上打开https://www.sharedrop.io,它们就会互相看到。它还允许你在网络之间发送文件——只需点击页面右上角的+按钮,就可以创建一个拥有独特URL的房间,并与你想要发送文件的其他人分享这个URL。一旦他们在自己设备的浏览器中打开这个页面,你就会看到彼此的头像。
  3. ShareDrop和AirDrop的主要区别在于,ShareDrop需要互联网连接才能发现其他设备,而AirDrop则不需要——它在这些设备之间创建特别的无线网络。另一方面,ShareDrop允许你在移动设备(Android)和桌面设备之间以及网络之间共享文件。
  • 声网 Agora Web Demo :
  1. Agora Web TypeScript SDK
  2. Web 端 Agora 在线教育场景 Demo
  3. Web 端1对1视频通话 Demo
  4. Web端多人视频通话Demo
  5. Web端集成 Agora 视频 SDK,视频音频自采集
  6. Web端实现屏幕共享Demo
  7. Web端基于Agora实时消息SDK发消息Demo
  8. Web端快速集成 Agora 视频 SDK,实现17人视频直播
  9. Web端实现浏览器远程控制桌面的 Demo

参考:webrtc音视频开发总结——架构分析