视频开发(三) FFmpeg相关结构体

来源:互联网 发布:分配网络流量的软件 编辑:程序博客网 时间:2024/06/05 17:44

文章摘自雷霄骅技术博客,个人学习摘记,感谢雷博士
相关摘记博客过多,这篇就不一一列出来了,可以使用之前的索引找到

1 AVFrame(存储原始数据)

AVFrame结构体一般用于存储原始数据(即非压缩数据,例如对视频来说是YUV,RGB,对音频来说是PCM),此外还包含了一些相关的信息。比如说,解码的时候存储了宏块类型表,QP表,运动矢量表等数据。编码的时候也存储了相关的数据。因此在使用FFMPEG进行码流分析的时候,AVFrame是一个很重要的结构体。

下面看几个主要变量的作用(在这里考虑解码的情况):uint8_t *data[AV_NUM_DATA_POINTERS]:解码后原始数据(对视频来说是YUV,RGB,对音频来说是PCM)int linesize[AV_NUM_DATA_POINTERS]:data中“一行”数据的大小。注意:未必等于图像的宽,一般大于图像的宽。int width, height:视频帧宽和高(1920x1080,1280x720...)int nb_samples:音频的一个AVFrame中可能包含多个音频帧,在此标记包含了几个int format:解码后原始数据类型(YUV420,YUV422,RGB24...)int key_frame:是否是关键帧enum AVPictureType pict_type:帧类型(I,B,P...)AVRational sample_aspect_ratio:宽高比(16:94:3...)int64_t pts:显示时间戳int coded_picture_number:编码帧序号int display_picture_number:显示帧序号int8_t *qscale_table:QP表uint8_t *mbskip_table:跳过宏块表int16_t (*motion_val[2])[2]:运动矢量表uint32_t *mb_type:宏块类型表short *dct_coeff:DCT系数,这个没有提取过int8_t *ref_index[2]:运动估计参考帧列表(貌似H.264这种比较新的标准才会涉及到多参考帧)int interlaced_frame:是否是隔行扫描uint8_t motion_subsample_log2:一个宏块中的运动矢量采样个数,取log

2 AVFormatContext(解封装)

是FFMPEG解封装(flv,mp4,rmvb,avi)功能的结构体。

主要变量的作用AVIOContext *pb:输入数据的缓存unsigned int nb_streams:视音频流的个数AVStream **streams:视音频流char filename[1024]:文件名int64_t duration:时长(单位:微秒us,转换为秒需要除以1000000int bit_rate:比特率(单位bps,转换为kbps需要除以1000)AVDictionary *metadata:元数据

3 AVCodecContext(编码解码)

一些关键的变量(这里只考虑解码)enum AVMediaType codec_type:编解码器的类型(视频,音频...)struct AVCodec  *codec:采用的解码器AVCodec(H.264,MPEG2...)int bit_rate:平均比特率uint8_t *extradata; int extradata_size:针对特定编码器包含的附加信息(例如对于H.264解码器来说,存储SPS,PPS等)AVRational time_base:根据该参数,可以把PTS转化为实际的时间(单位为秒s)int width, height:如果是视频的话,代表宽和高int refs:运动估计参考帧的个数(H.264的话会有多帧,MPEG2这类的一般就没有了)int sample_rate:采样率(音频)int channels:声道数(音频)enum AVSampleFormat sample_fmt:采样格式int profile:型(H.264里面就有,其他编码标准应该也有)int level:级(和profile差不太多)

4 AVIOContext(输入输出数据)

AVIOContext中有以下几个变量比较重要:unsigned char *buffer:缓存开始位置int buffer_size:缓存大小(默认32768unsigned char *buf_ptr:当前指针读取到的位置unsigned char *buf_end:缓存结束的位置void *opaque:URLContext结构体

在解码的情况下,buffer用于存储ffmpeg读入的数据。例如打开一个视频文件的时候,先把数据从硬盘读入buffer,然后在送给解码器用于解码。

5 AVCodec(存储编解码器信息)

最主要的几个变量:const char *name:编解码器的名字,比较短const char *long_name:编解码器的名字,全称,比较长enum AVMediaType type:指明了类型,是视频,音频,还是字幕enum AVCodecID id:ID,不重复const AVRational *supported_framerates:支持的帧率(仅视频)const enum AVPixelFormat *pix_fmts:支持的像素格式(仅视频)const int *supported_samplerates:支持的采样率(仅音频)const enum AVSampleFormat *sample_fmts:支持的采样格式(仅音频)const uint64_t *channel_layouts:支持的声道数(仅音频)int priv_data_size:私有数据的大小

下面简单介绍一下遍历ffmpeg中的解码器信息的方法(这些解码器以一个链表的形式存储):
1.注册所有编解码器:av_register_all();
2.声明一个AVCodec类型的指针,比如说AVCodec* first_c;
3.调用av_codec_next()函数,即可获得指向链表下一个解码器的指针,循环往复可以获得所有解码器的信息。注意,如果想要获得指向第一个解码器的指针,则需要将该函数的参数设置为NULL。

6 AVStream(存储每一个视频/音频流信息)

重要的变量如下所示:int index:标识该视频/音频流AVCodecContext *codec:指向该视频/音频流的AVCodecContext(它们是一一对应的关系)AVRational time_base:时基。通过该值可以把PTS,DTS转化为真正的时间。FFMPEG其他结构体中也有这个字段,但是根据我的经验,只有AVStream中的time_base是可用的。PTS*time_base=真正的时间int64_t duration:该视频/音频流长度AVDictionary *metadata:元数据信息AVRational avg_frame_rate:帧率(注:对视频来说,这个挺重要的)AVPacket attached_pic:附带的图片。比如说一些MP3,AAC音频文件附带的专辑封面。

7 AVPacket(存储压缩编码数据相关信息)

重要的变量有以下几个:uint8_t *data:压缩编码的数据。例如对于H.264来说。1AVPacketdata通常对应一个NAL注意:在这里只是对应,而不是一模一样。他们之间有微小的差别:使用FFMPEG类库分离出多媒体文件中的H.264码流因此在使用FFMPEG进行视音频处理的时候,常常可以将得到的AVPacketdata数据直接写成文件,从而得到视音频的码流文件。int   size:data的大小int64_t pts:显示时间戳int64_t dts:解码时间戳int   stream_index:标识该AVPacket所属的视频/音频流。