常见MMFW名称

来源:互联网 发布:淘宝接单平台app有哪些 编辑:程序博客网 时间:2024/04/27 18:59

1. pipeline 属于 bin类型吗?
  是的,pipeline是特殊的bin类型,允许执行其中的所有子元素。
 2. gstreamer的状态和player的状态不一样
 3. SDL(Simple DirectMedia Layer)是一个自由的跨平台的多媒体开发包,适用于 游戏、游戏SDK、演示软件、模拟器、MPEG播放器和其他应用软件。
 4. ALSA是Advanced Linux Sound Architecture,高级Linux声音架构的简称,它在Linux操作系统上提供了音频和MIDI(Musical Instrument Digital Interface,音乐设备数字化接口)的支持。
 5. OSS = Open Sound System
 6. Video4Linux2是Linux系统下进行音影图像开发的应用编程接口.
 7. DirectFB是一个轻量级的提供硬件图形加速,输入设备处理和抽象的图形库,它集成了支持半透明的视窗系统以及在LinuxFramebuffer驱动之上的多层显示。
 8. DRM,英文全称Digital Rights Management, 数字权限管理技术
 9. UTF,是Unicode Transformation Format的缩写,意为Unicode转换格式。如果UNICODE字符由2个字节表示,则编码成UTF-8很可能需要3个字节,而如果UNICODE字符由4个字节表示,则编码成UTF-8可能需要6个字节。
 10. 通用资源标志符(Uniform Resource Identifier), 简称"URI"
 11. INI是微软Windows操作系统中的文件扩展名(也常用在其他系统)。INI是英文“初始化(Initial)”的缩写。正如该术语所表示的,INI文件被用来对操作系统或特定程序初始化或进行参数设置。
 12. PulseAudio(以前叫Polypaudio)是一个跨平台的,可通过网络工作的声音服务,其一般使用于Linux和FreeBSD操作系统。它可以用来作为一种简易改进的开放声音后台(ESD)替换。
 13. Embedded application binary interface, 即嵌入式应用二进制接口
 14. SWI(Software Interrupt),可以直译为软中断,在 RISC OS中使用 SWI 来访问操作系统例程或第三方生产的模块。许多应用使用模块来给其他应用提供低层外部访问。
 15. RTSP(Real Time Streaming Protocol),实时流传输协议,是TCP/IP协议体系中的一个应用层协议, RTSP是用来控制声音或影像的多媒体串流协议
 16. XFree86是XWindow系统最被广泛使用的基建平台。X Window是一种以位图方式显示的软件窗口系统,最初是1984年麻省理工学院的研究成果,之后变成UNIX、类UNIX、以及OpenVMS等操作系统所
  一致适用的标准化软件工具包及显示架构的运作协议。
 17. V4L2(video 4 linux 2)
 18. LBS, 基于位置的服务(Location Based Service),它是通过电信移动运营商的无线电通讯网络(如GSM网、CDMA网)或外部定位方式(如GPS)获取移动终端用户的位置信息(地理坐标,或大地坐标),
   在GIS(Geographic Information System,地理信息系统)平台的支持下,为用户提供相应服务的一种增值业务。
 19. PCM , 脉冲编码调制(pulse - code modulation)
 20. OpenAL(Open Audio Library)是自由软件界的跨平台音效API。它设计给多通道三维位置音效的特效表现。其 API 风格模仿自 OpenGL。
 21. AAC(Advanced Audio Coding),中文称为“高级音频编码”,出现于1997年,基于 MPEG-2的音频编码技术。
 22. MIME 类型就是设定某种扩展名的文件用一种应用程序来打开的方式类型,当该扩展名文件被访问的时候,浏览器会自动使用指定应用程序来打开。多用于指定一些客户端自定义的文件名,以及一些媒体文件打开方式。
   MIME的英文全称是"Multipurpose Internet Mail Extensions" 多功能Internet 邮件扩充服务,它是一种多用途网际邮件扩充协议。
 23. LGPL是 GNU Lesser General Public License (GNU 宽通用公共许可证)的缩写形式,旧称GNU Library General Public License (GNU 库通用公共许可证),后来改称作Lesser GPL,即为更宽松的GPL,在宽松程度上
  与 BSD, Apache,XFree86 许可证相似。GPL(General Public License)和LGPL是GNU的两种License。越来越多的自由软件(Free Software)使用GPL作为其授权声明,如果对GPL一点都不了解,有可能在使用自由
  软件时违反GPL的授权,恐怕会有被起诉的风险。所以任何公司在使用自由软件之前应该保证在LGPL或其它GPL变种的授权下。
 24. Ogg全称应该是OGGVobis(oggVorbis)是一种新的音频压缩格式,类似于MP3等的音乐格式。Ogg是完全免费、开放和没有专利限制的。OggVorbis文件的扩展名是.OGG。Ogg文件格式可以不断地进行大小和
   音质的改良,而不影响旧有的编码器或播放器。
 25. AMR(Adaptive Multi-Rate和Adaptive Multi-Rate Wideband )接口卡将音频和MODEM的接口电路、模拟电路和解码器制作在上面。自适应多码率编译码器是一种在较大数据传输速率范围内的编译码器,
  AMR编解码器也用在多种蜂窝系统中协调编译码器标准。
 26. OpenMAX是一个多媒体应用程序的标准。由NVIDIA公司和Khronos?在2006年推出。
 27. H.264是ITU-T以H.26x系列为名称命名的视频编解码技术标准之一。目前国际上制定视频编解码技术的组织有两个,一个是“国际电联(ITU-T)”,它制定的标准有H.261、H.263、H.263+等,
  另一个是“国际标准化组织(ISO)”它制定的标准有MPEG-1、MPEG-2、MPEG-4等。而H.264则是由两个组织联合组建的联合视频组(JVT)共同制定的新数字视频编码标准,所以它既是ITU-T的H.264,
  又是ISO/IEC的MPEG-4高级视频编码(Advanced Video Coding,AVC),而且它将成为MPEG-4标准的第10部分。因此,不论是MPEG-4 AVC、MPEG-4 Part 10,还是ISO/IEC 14496-10,都是指H.264。
 28. H.263是国际电联ITU-T的一个标准草案[1],是为低码流通信而设计的。但实际上这个标准可用在很宽的码流范围,而非只用于低码流应用,它在许多应用中可以认为被用于取代H.261。H.263的编码算法
  与H.261一样,但做了一些改善和改变,以提高性能和纠错能力。
 29. IIS(Inter-IC Sound bus)又称I2S,是菲利浦公司提出的串行数字音频总线协议。目前很多音频芯片和MCU都提供了对IIS的支持。IIS总线只处理声音数据。其他信号(如控制信号)必须单独传输。
  为了使芯片的引出管脚尽可能少,IIS只使用了三根串行总线。这三根线分别是:提供分时复用功能的数据线、字段选择线(声道选择)、时钟信号线。
 30. AC97标准则提出“双芯片”结构,即将声卡的数字与模拟两部分分开,每个部分单独使用一块芯片。AC97标准结合了数字处理和模拟处理两方面的优点,一方面减少了由模拟线路转换至数字线路时可能会出现的噪声,
  营造出了更加纯净的音质;另一方面,将音效处理集成到芯片组后,可以进一步降低成本。
 31. PCM、IIS和AC97各有其优点和应用范围,例如在CD、MD、MP3随身听多采用IIS接口,移动电话会采用PCM接口,具有音频功能的PDA则多使用和PC一样的AC'97编码格式。
 32. libavformat 用来处理解析视频文件并将包含在其中的流分离出来, 而 libavcodec 则处理原始音频和视频流的解码。libavformat 和 libavcodec 都位于 gstreamer0.10-ffmpeg/gst-libs/ext/ffmpeg 目录下
 33. GNOME,即GNU网络对象模型环境 (The GNU Network Object Model Environment),GNU计划的一部分,开放源码运动的一个重要组成部分。其目标是基于自由软件,为Unix或者类Unix操作系统构造
  一个功能完善、操作简单以及界面友好的桌面环境,它是GNU计划的正式桌面。

 

2. framebuffer, xpixmap, xwindow
framebuffer: 直接打开一个FrameBuffer设备,通过mmap调用把显卡的物理内存空间映射到用户空间,直接写内存
从而刷新页面。
xwindow: xclient 客户程序发送请求给 xserver, xserver调用相关设备驱动去使用设备。
xpixmap: 是一个保存在内存里的图片格式,实际上是一个尚未绘制到屏幕上的窗口。
(1)Framebuffer 是用来一个视频输出设备从包含完整的帧数据的一个内存缓冲区中来驱动一个视频显示设备。
在内存缓冲区中标准上包含了屏幕上每个像素的色彩值组成。色彩值通常存储成1-bit(黑白色彩),4-bit调色版,
8-bit调色版,16-bit高色彩,24-bit真色彩格式。一个额外的alpha通道有时用来保存像素透明度信息。帧缓冲
设备提供了显卡的抽象描述。他同时代表了显卡上的显存,应用程序通过定义好的接口可以访问显卡,而不需要
知道底层的任何操作。该设备使用特殊的设备节点,通常位于/dev目录,如/dev/fb*
(1.1) sh-4.1# ls -l fb0
 crw-rw---- 1 root video 29, 0 2013-01-01 08:00 fb0
 C代表这个文件对应的是字符设备,所谓字符设备就是鼠标、键盘等,可以简单理解为字符相关
因为framebuffer经常用来设计处理不止一个分辨率,所他们经常包含更多的内存,用来在低分辩率显示单独的帧。
既然这个内存在大小上足够大,发明一个方法来允许新的帧写入视频内存,并且不干扰正在显示的内容。这个概念
工作原理是告诉framebuffer用一块特殊的内存来显示当前帧。当内存中的显示出来后,一个单独完整的部分内存
用来添装下一帧。一旦第二帧填充完成,framebuffer被命令找到第二个buffer替代。此时主buffer变成了第二buffer.
第二buffer也就变成了主buffer. 这个操作通常在垂直回归期(vertical blanking interval)完成,来防止屏幕tearing
(旧帪显示一半,新帪显示一半)。
(1.2) Vertical Blanking Interval (VBI) 垂直回扫期
   我们通常收看的电视图象是由电子枪发射的电子串高速轰击显象管上的荧光物质而产生的,电子串按从左至右,
   从上至下的方式扫描整个屏幕,因为速度十分快,所以我们的眼睛感觉不到,当电子枪的扫描位置从左上角达到
   右下角时,必须由右下角回到左上角,开始下一次扫描,从右下角回到左上角所花费的时间就是垂直回扫期,
   这一段时间对于设备来说是一个浪费,因此人们想了办法来利用这一段时间,电视台可以利用这一时间发送一些
   不可显示信息,如果您使用过图文电视您就会立刻明白,为什么图文电视卡要接收电视信号,电视卡可以解读这
   一信息,而电视不能,这种信息就是利用垂直回扫期发送的,电视卡通过RS-232端口将接收到的不可显示信息传送
   给计算机,由计算机加以处理,这就是图文电视的原理,也就是说,电视台利用垂直回扫期发送一些不可显示的信息,
   而图文电视卡将这种信息接收下来,经过解码发送到计算机内由计算机处理。这种信息传送称为VBI信息传送,对于
   这种信息的传送的一个开放的国际标准,称为北美基本图文说明(North American Basic Teletext Specification,
   NABTS),它用于欧洲,南美和远东地区,其它的标准还有WST,Gemstar和Nielsen。
###########################################################################################################################################
(2) X-window于1984年在麻省理工学院(MIT)电脑科学研究室开始开发的,当时Bob Scheifler正在发展分散式系统
(distributed system),同一时间 DEC公司的 Jim Gettys 正在麻省理工学院做 Athena 计划的一部分。两个计划
都需要一个相同的东西——一套在UNIX机器上运行优良的视窗系统。因此合作关系开始展开,他们从斯坦福(Stanford)
大学得到了一套叫做W的实验性视窗系统。因为是根据W视窗系统的基础开始发展的,当发展到了足以和原先系统有
明显区别时,他们把这个新系统叫做X。
(2.1)X的基本部件
X系统不像早期的视窗系统是把一堆同类软件集中在一起,而是由3个相关的部分组合起来的。
(2.1.1)Server(服务器)
Server是控制显示器和输入设备(键盘和鼠标)的软件。Server可以创建视窗,在视窗中画图形和文字,回应Client程序
的“需求”(requests),但它不会自己动作,只有在Client程序提出需求后才完成动作。
每一套显示设备只对应一个惟一的Server,而且Server一般由系统的供应商提供,通常无法被用户修改。对于操作系统而言,
Server只是一个普通的用户程序而已,因此很容易更换新的版本,甚至是第三方提供的原始程序。
(2.1.2) Client(用户端)
Client是使用系统视窗功能的一些应用程序。在X下的应用程序称做Client,原因是它是Server的客户,要求Server回应
它的需求完成特定的动作。
Client无法直接影响视窗或显示,它们只能送一个请求(request)给Server,由Server来完成它们的请求。典型的请求
通常是“在某个视窗中写‘Hello World’的字串”,或者从A到B划一条直线。
Client的功能大致可分为两部分:向Server提“需求”只是它的一部分功能,其他的功能是为用户执行程序而准备的。例如
输入文字信息、作图、计算等等。通常,Client程序的这一部分是和X独立的,它对于X几乎不需要知道什么。通常,应用
程序(特别是只大型的标准绘图软件、统计软件等)对许多输出设备具有输出的能力,而在X视窗中的显示只是Client程序
许多输出格式中的一种,所以,Client程序中和X相关的部分在整个程序中只占非常小的一部分。
用户可以通过不同的途径使用Client程序:通过系统提供的程序来使用;使用来自于第三方的软件;或者是用户自己为了
某种特殊应用而编写自己的Client程序。
第一次接触X Window系统的用户很容易混淆X Window系统中的客户机/服务器的概念,他们会认为X Window下的客户机/服务器
的概念与普通网络中的客户机/服务器的概念不太相同。通常的观念中,用户使用客户工作站,使用远程服务器提供的文件或
显示服务,而在X Window下,用户使用X服务器进行操作,而客户程序可以运行在本地或者远程电脑上。
如果进一步理解,就会了解客户/服务器的概念指的是具体运行的进程,而非电脑或用户。不是与用户联系最密切的电脑就是
客户,而是首先要明确服务资源,然后再以资源提供者和资源占用者来进行区分。在一般的客户/服务器方式的应用中,一般
是客户程序直接与用户交互,因此就容易造成错误的概念,以用户为中心来区分客户和服务器。
但在X Window下,服务资源为X服务器的显示提供处理能力,X客户程序要显示图形图像,但它不能直接控制显示硬件,只能使用
用户面前的X服务器提供的显示资源。同样它也不能接受用户输入,也只能使用X服务器控制的键盘或鼠标资源来接受输入。在这里,
X服务器是硬件的控制者,X客户只是单纯的执行程序,只能使用X服务器提供的服务进行输入输出。
X服务器(X Server)是一个管理显示的进程,必须运行在一个有图形显示能力的电脑上。理论上,一台电脑上可以同时运行多个
X服务器,每个X服务器能管理多个与之相连的显示设备。
X客户程序(X Client)是一个使用X服务器显示其资料的程序,它可以运行在与X服务器不同的电脑上。
X协议(X protocol)是X客户程序和服务器进行通信的一套协定,X协议支持网络,能在本地系统中和网络实现这个协议,支持的
网络协议有TCP/IP, DECnet等。
X的这种任务划分有几个优点:
(2.1.2.1)客户程序可以在远程电脑上执行计算任务,而使用的X服务器仅负责复杂的图形显示,充分发挥X服务器在显示上的优势。
(2.1.2.2)只有X服务器与硬件打交道,所有的客户程序都与硬件无关,这很容易在不同的平台上移植。
(2.1.2.3)客户程序可以在不同的电脑上运行,从巨型机到个人电脑,从而充分发挥网络计算的优越性。
尽管每个X客户程序都可以对整个屏幕范围进行显示操作,但标准的做法是先创建一个显示视窗,此后客户程序的所有显示都相对于
这个视窗进行操作。这样在同一屏幕内就能同时显示多个独立的客户程序,通过对视窗的管理在不同的程序之间进行切换。每个视窗
应该位于屏幕的哪个位置、何时显示、何时隐藏,以及视窗的标题、四周如何显示等,这些都不应该由产生这个视窗的客户程序自己
控制和维护,否则就不能达到简化设计的目的。X Window并没有自己实现这些任务,在X的设计原则中,这些代表 GUI风格的任务仍然
是客户程序的任务,因此X将管理视窗的任务给予了一个特殊客户程序——视窗管理器,使用不同的视窗管理器会使X Window的外观看起来
截然不同。
X系统只负责显示图形,并不限制显示和操作的风格,因此不同的X Window的风格并不相同,用户可以根据自己的喜好进行选择。
在X Window上,所有的视窗形成了一个树状结构。X Window的视窗管理程序运行在根视窗上,所有的其他视窗为根视窗的子视窗,而其他
视窗上也有相应的按钮、对话框等元件,这些是它的子视窗。如图7-2所示。
由于X Window系统只提供了最基本的系统调用,而具体的视窗都有很多共性,因此要开发X应用程序,应该首先使用开发工具包,而没有必要
直接使用最基本的X Window 的系统调用,以简化编写程序的工作量。不同的公司或组织开发了各种工具包来提供创建和管理具体视窗的构件,
例如Motif套件、OpenLook套件等。每种套件都提供了菜单、按钮、对话框等图形接口的标准构件,还提供基本的视窗管理器。使用不同套件
开发的程序,其显示风格也不相同,因此就在不同程序之间形成了不同的GUI风格。Motif和Openlook 就是两种不同的图形接口风格,当前Motif
成为了商业X Window的一个标准,很多商业软件均基于Motif进行开发,而Openlook则没有获得更普遍的支持。
(2.1.3)通信通道
有了Server和Client,它们之间就要传输一些信息,这种传输信息的媒介就是我们所要介绍的X的第3个组成部件:通信通道。凭借这个通道,
Client传送“需求”给Server。而Server回传状态(status)及其他一些信息给Client。
Client是通过函数库来使用通信通道的。在系统或网络上支持通信形态需求的是内建于系统的基本的X视窗函数库(library)。只要Client程序
利用了函数库,自然就有能力使用所有可用的通信方法。这时通道本身就变得不再重要了,而只是一个概念而已。
(2.2)Server和Client之间的通信
Server和Client通信的方法大致有两类,对应于X系统的两种基本操作模式。
第一类,Server和Client在同一台机器上执行,它们可以共同使用机器上任何可用的通信方法做互动式信息处理。在这种模式下,X可以同其他
传统的视窗系统一样高效工作。
第二类,Client在一部机器上运行,而显示器和Server则在另一部机器上运行。因此两者的信息交换就必须通过彼此都遵守的网络协议进行,
最常用的协议为TCP/IP。这种通信方式一般被称为网络透明性,这也几乎是X独一无二的特性。
(2.3)X的用户接口
X的设计目标之一就是能创建许多不同形式的用户接口。其他视窗系统提供具体的交互方法,而X只提供一般的架构,让系统创建者建造所需的
交互风格。这种特性使得开发者可以在X的基础上建造全新的接口,并且可以在任何时刻根据自己的需要选用适当的接口。
一般来说,用户接口可以分为两部分。管理接口也就是视窗管理器,是命令的最高层,它负责在屏幕上建构或重建视窗,改变视窗的大小、位置,
或者将视窗改变成图示等。
应用接口确定了用户和应用程序之间的交互风格,即用户如何利用视窗系统的设备程序来控制应用程序并输入资料给它。例如,如何用鼠标来
选定一个选项。
(2.4)X独立于操作系统
X不是内置于操作系统,它只是比用户层次稍高一些。在系统中也是一个相对独立的元件。这样做有如下优点:
(2.4.1)易于安装和改版,甚至去除。这种工作不需要重启系统,也不会对其他应用程序造成干扰。
(2.4.2)第三方很容易支持并加强它的功能。例如你的制造厂商提供的系统不够好,你可以向别人买更好或更快的版本。
(2.4.3)X不会制定操作系统,因此成为一种标准,这也是第三方发展软件的原动力。
(2.4.4)为了开发者。在Server上进行工作时,如果程序异常中断,只会影响到视窗系统,不会造成机器的损坏或操作系统内核的破坏。
###########################################################################################################################################
(3) 图形映射(pixmap)
图形映射(pixmap)是内存中可用来绘图的区域。与视窗不同,图形映射的内容并不会自动显示在屏幕上。不过图形映射的内容(或部分内容)
可转换到视窗上,反之亦然。这就让双缓冲得以实作。大部分可在视窗上完成的图形化操作,也可以图形映射完成。
视窗和图形映射被统称为可绘区(drawable),且其资料内容都保留在服务器上。客户端可请求从服务器上,将可绘区的内容转换到客户端,反之亦然。
一个X pixmap 是一个X窗口系统在内存里保存图像的格式。该格式可以储存黑色和白色的图片(例如X bitmaps)也可以保存带颜色的图片。这实际上是
X协议唯一能支持的图片格式,任何图片如果想被显示在屏幕上前都要先被转换成这种格式。实际上,一个X pixmap应该被认为是一个没有被绘制到
屏幕上的窗口。
###########################################################################################################################################

3. zero copy

4. crw-rw-rw- 开头的c 是啥意思?
C代表这个文件对应的是字符设备,所谓字符设备就是鼠标、键盘等,可以简单理解为字符相关

5. Csound

6. BREW 的全称是无线二进制运行时环境。从基本的层面而言,BREW 平台就是手持设备上嵌入式芯片操作系统的接口或抽象层。您可以将它看作是 PC 环境下
Microsoft Windows 的 Win32 API。BREW 平台是一组用于本地执行而编译并链接的二进制库,优化后能使应用程序利用无线服务和资源。它控制流出或流入应
用程序的事件流,能根据相应的事件启动、停止、中止或恢复应用程序。BREW 执行环境在运行时可以发现应用程序和任何相关的扩展。
BREW就是无线二进制运行环境(Binary Runtime Environment for Wireless)的缩写, 是高通公司2001年推出的基于CDMA网络 "无线互联网发射平台" 上增值业
务开发运行的基本平台。相对Java,BREW是一个更底层的技术。

7. MSM8974(LTE)是高通2013年推出的Snapdragon 800系列产品。芯片制造商高通在CES 2013上发布的最新移动芯片snapdragon 800系列,是目前高通最高端的
移动芯片,新的Krait 400核心能够将时钟频率拉升至2.3GHz,同时Adreno 330 GPU和LPDDR3内存模组在性能组合非常出色。这款芯片还支持更快的Cat.4 (150 Mbps下行)
LTE网络,802.11ac Wi-Fi,4K分辨率的高清视频,显示屏支持的最高分辨率达到了2560 x 2048.

8. Krait是美国高通公司基于ARMv7-A指令集、自主设计的采用28纳米工艺的全新处理器微架构。能够实现每个内核最高运行速度可达2.5GHz,较高通第一代的Scorpion CPU
微架构在性能上提高60%以上,并将功耗降低65%。

9. 堆栈式CMOS,英文名称叫做"Stacked CMOS",也可以翻译为"积层式CMOS",实际上这些概念指的是同一种东西。Exmor RS CMOS的特点是高像素化、高性能化以及小型化。
Exmor RS CMOS的原理是,它使用有信号处理电路的芯片替代了原来背照CMOS图像传感器的支持基板,在芯片上重叠形成背照CMOS元件的像素部分,从而实现了在较小的芯片
尺寸上形成大量像素点的工艺。由于像素部分和电路部分分别独立,因此像素部分可针对高画质优化,电路部分可针对高性能优化。

10. 硬件解码:图形芯片厂家提出的用GPU资源解码视频流的方案——与之相对的是软解,也就是传统的用CPU承担解码工作的方案。
硬件解码的优点就是效率高,功耗低、热功耗低,缺点是缺乏有力的支持(包括滤镜、字幕等),局限性较大(例如打开硬件解码后PC的节能
方面的功能失效cnq等),设置较为复杂。
硬件解码需要硬件有硬件解码模块、相关的驱动配合、合适的播放软件以及对播放软件正确的设置,缺一而不能开启硬件解码功能。
目前主流的硬件解码方案由Intel、AMD-ATI以及Nvdia推出。

11. FFmpeg是一个开源免费跨平台的视频和音频流方案,属于自由软件,采用LGPL或GPL许可证(依据你选择的组件)。它提供了录制、转换以及流化音视频的完整
解决方案。它包含了非常先进的音频/视频编解码库libavcodec,为了保证高可移植性和编解码质量,libavcodec里很多codec都是从头开发的。
多媒体视频处理工具FFmpeg有非常强大的功能[2]包括视频采集功能、视频格式转换、视频抓图、给视频加水印等。
FFmpeg是一套可以用来记录、转换数字音频、视频,并能将其转化为流的开源计算机程序。它包括了目前领先的音/视频编码库libavcodec等。
libavformat:用于各种音视频封装格式的生成和解析,包括获取解码所需信息以生成解码上下文结构和读取音视频帧等功能;
libavcodec:用于各种类型声音/图像编解码;
libavutil:包含一些公共的工具函数;
libswscale:用于视频场景比例缩放、色彩映射转换;
libpostproc:用于后期效果处理;
ffmpeg:该项目提供的一个工具,可用于格式转换、解码或电视卡即时编码等;
ffsever:一个 HTTP 多媒体即时广播串流服务器;
ffplay:是一个简单的播放器,使用ffmpeg 库解析和解码,通过SDL显示;

 

0 0
原创粉丝点击