WebRTC的视频传输的大致流程
来源:互联网 发布:苹果看图软件 编辑:程序博客网 时间:2024/06/07 05:59
首先介绍一下WebRTC的视频传输的大致流程,摄像头在一端拍下图片,然后编码,通过RTP传输给另一端,另一端接收到图片后,解码,最后显示到屏幕上。该过程反复进行就实现了端对端的视频通信。
这里重点介绍一下编码和解码,Google实现的WebRTC只支持VP8编解码,不支持当今流行的H264(由于专利费用问题),VP8编码是Google开发的一种编码,已经开源了,开发者可以免费使用,更多信息可以参考http://www.webmproject.org/code/
在Android平台上WebRTC的视频编解码共有三种方案,即调用第三方编解码库(libvpx)和调用Android平台上的MediaCodec编解码,而MediaCodec编解码又可细分为两种,其一是MediaCodec的软件解码,其二是真正的GPU硬件加速编解码。MediaCodec采用软件或硬件编解码取决于平台GPU有没有实现VP8的编解码,如果平台支持,MediaCodec自然就会调用硬件去加速编解码,否则MediaCodec就会调用软件的编解码来完成。据写本文为止,只有三星的Nexus10支持VP8的硬件解码。至于VP8的硬件编码,目前还没有厂商支持,因为VP8的解码除了WebRTC需要之外,播放VP8编码的视频也可以受益,而VP8的硬件编码只有WebRTC有该需求,所以厂商在支持解码比编码的动力更强一些。在WebRTC实现的早期阶段(chrome 30之前),Android平台上都是采用第一种方式(调用libvpx)来完成编解码的。在chrome 31及其以后就会调用平台自带的MediaCodec完成编解码。
下面介绍一下这三种解码的效率如何:采用MediaCodec的硬件加速解码与libvpx相比,fps没有明显的变化保持在28左右,但是cpu的利用率可以减少一半,这样就可以解放CPU去执行其他的任务,UI响应会更及时,带来更好的用户体验。- WebRTC的视频传输的大致流程
- Handler的大致流程
- SendMessage的大致流程
- 报表的大致流程
- ffplay的大致流程
- 使用Handler的大致流程
- hadoop大致的工作流程
- webrtc之本地视频传输
- LoadRunner进行性能测试的大致流程
- Struts 2框架的大致处理流程
- linux设备驱动的大致流程
- LoadRunner进行性能测试的大致流程
- 嵌入式Linux设备驱动的大致流程
- android init进程启动的大致流程
- G-sensor driver工作的大致流程
- G-sensor driver工作的大致流程
- Struts 2框架的大致处理流程
- HBase中region split的大致流程
- 查询锁表与解锁
- 去除字符串末尾指定的字符实例
- java bytes & string conversion
- iOS 获取图片某一点的颜色对象UIColor
- 利用百度地图服务发布自己制作图片的地图
- WebRTC的视频传输的大致流程
- 二叉树的下一结点
- STM32F103RE使用SPI3作为从模式
- 关于Java中的String为什么不可变
- virtualBox安装centos6增强包报错解决及配置共享文件夹
- Linux环境下写一个进度条
- 多任务系统
- vim使用
- 普通Menu案例