如何用 FFmpeg 编写一个简单播放器详细步骤介绍(转载)

来源:互联网 发布:淘宝宝贝库存在哪设置 编辑:程序博客网 时间:2024/06/06 20:17

如何用 FFmpeg 编写一个简单播放器详细步骤介绍(转载)

 FFMPEG 是一个很好的库,可以用来创建视频应用或者生成特定的工具。FFMPEG几乎为你把所有的繁重工作都做了,比如解码、编码、复用和解复用。这使得多媒体应用程序变得容易编写。它是一个简单的,用 C 编写的,快速的并且能够解码几乎所有你能用到的格式,当然也包括编码多种格式。
 唯一的问题是它的文档基本上是没有的。有一个单独的指导讲了它的基本原理,另外还有一个使用 doxygen 生成的文档。这就是为什么当我决定研究 FFMPEG 来弄清楚音视频应用程序是如何工作的过程中,我决定把这个过程用文档的形式记录并且发布出来作为初学指导的原因。
 在 FFMPEG 工程中有一个示例的程序叫作 ffplay。它是一个用 C 编写的利用 ffmpeg 来实现完整视频播放的简单播放器。这个指导将从原来 Martin Bohme 写的一个更新版本的指导开始(我借鉴了一些), 基于 Fabrice Bellard 的 ffplay,我将从那里开发一个可以使用的视频播放器。在每一个指导中,我将介绍一个或者两个新的思想并且讲解我们如何来实现它。每一个指导都会有一个 C 源文件,你可以下载,编译并沿着这条思路来自己做。源文件将向你展示一个真正的程序是如何运行,我们如何来调用所有的部件,也将告诉你在这个指导中技术实现的细节并不重要。当我们结束这个指导的时候,我们将有一个少于 1000 行代码的可以工作的视频播放器。
 在写播放器的过程中,我们将使用 SDL 来输出音频和视频。SDL 是一个优秀的跨平台的多媒体库,被用在 MPEG 播放、模拟器和很多视频游戏中。你将需要下载并安装 SDL 开发库到你的系统中,以便于编译这个指导中的程序。
 这篇指导适用于具有相当编程背景的人。至少至少应该懂得 C 并且有队列和互斥量等概念。你应当了解基本的多媒体中的像波形一类的概念,但是你不必知道的太多,因为我将在这篇指导中介绍很多这样的概念。

指导 1:制作屏幕录像

源代码:tutorial01.c
概要
 电影文件有很多基本的组成部分。首先,文件本身被称为容器 Container,容器的类型决定了信息被存放在文件中的位置。AVI 和 Quicktime 就是容器的例子。接着,你有一组流, 例如,你经常有的是一个音频流和一个视频流。(一个流只是一种想像出来的词语,用来表示一连串的通过时间来串连的数据元素)。 在流中的数据元素被称为帧Frame。 每个流是由不同的编码器来编码生成的。编解码器描述了实际的数据是如何被编码 Coded 和解码 DECoded 的,因此它的名字叫做 CODEC。Divx 和 MP3 就是编解码器的例子。接着从流中被读出来的叫做包 Packets。包是一段数据,它包含了一段可以被解码成方便我们最后在应用程序中操作的原始帧的数据。根据我们的目的,每个包包含了完整的帧或者对于音频来说是许多格式的完整帧。
 基本上来说,处理视频和音频流是很容易的:
① 从 video.avi 文件中打开视频流 video_stream
② 从视频流中读取包到帧中
③ 如果这个帧还不完整,跳到
④ 对这个帧进行一些操作
⑤ 跳回到 ②
 在这个程序中使用 ffmpeg 来处理多种媒体是相当容易的,虽然很多程序 可能在对帧进行操作的时候非常的复杂。因此在这篇指导中,我们将打开一个文件,读取里面的视频流,而且我们对帧的操作将是把这个帧写到一个 PPM 文件中。
打开文件
首先,来看一下我们如何打开一个文件。通过 ffmpeg,你必需先初始化这个库。(注意在某些系统中必需 用

#include <avcodec.h>#include <avformat.h>...int main(int argc, charg *argv[]){av_register_all();

 这里注册了所有的文件格式和编解码器的库,所以它们将被自 动的使用在被打开的合适格式的文件上。注意你只需要调用 av_register_all()一次,因此我们在主函数 main()中来调用它。如果你喜欢, 也可以只注册特定的格式和编解码器,但是通常你没有必要这样做。
 现在我们可以真正的打开文件:

AVFormatContext *pFormatCtx;// Open video fileif(av_open_input_file(&pFormatCtx, argv[1], NULL, 0, NULL)!=0)    return -1; // Couldn't open file

 我们通过第一个参数来获得文件名。这个函数读取文件的头部并且把信息保存到我们给的 AVFormatContext 结构体中。最后三个参数用来指定特殊的文件格式,缓冲大小和格式参数,但如果把它们设置为空 NULL 或者 0,libavformat 将自动检测这些参数。
 这个函数只是检测了文件的头部,所以接着我们需要检查在文件中的流的信息:

// Retrieve stream informationif(av_find_stream_info(pFormatCtx) < 0)    return -1; // Couldn't find stream information

 这个函数为 pFormatCtx->streams 填充上正确的信息。我们引进一个手工调试的函数来看一下里面有什么:

// Dump information about file onto standard errordump_format(pFormatCtx, 0, argv[1], 0);

 现在 pFormatCtx->streams 仅仅是一组大小为 pFormatCtx->nb_streams 的指针,所以让我们先跳过它直到我们找到一个视频流。

int i;AVCodecContext *pCodecCtx;// Find the first video streamvideoStream=-1;for(i=0; i<pFormatCtx->nb_streams; i++)if(pFormatCtx->streams->codec->codec_type == CODEC_TYPE_VIDEO) {    videoStream=i;    break;}if(videoStream == -1)    return -1; // Didn't find a video stream// Get a pointer to the codec context for the video streampCodecCtx=pFormatCtx->streams[videoStream]->codec;

 流中关于编解码器的信息就是被我们叫做”codec context”(编解码器上下文)的东西。这里面包含了流中所使用的关于编解码器的所有信息,现在我们有了一个指向他的指针。但是我们必需要找到真正的 编解码器并且打开它:

AVCodec *pCodec;// Find the decoder for the video streampCodec=avcodec_find_decoder(pCodecCtx->codec_id);if(pCodec == NULL) {    fprintf(stderr, "Unsupported codec!\n");    return -1; // Codec not found}// Open codecif(avcodec_open(pCodecCtx, pCodec)<0)    return -1; // Could not open codec

 有些人可能会从旧的指导中记得有两个关于这些代码其它部分:添加CODEC_FLAG_TRUNCATED 到 pCodecCtx->flags 和添加一个 hack 来粗糙的修正帧率。这两个修正已经不在存在于 ffplay.c 中。因此,我必需假设它们不再必要。我们移除了那些代码后还有一个需要指出的 不同点:pCodecCtx->time_base 现在已经保存了帧率的信息。time_base 是一个结构体,它里面有一个分子和分母(AVRational)。我们使用分数的方式来表示帧率是因为很多编解码器使用非整数的帧率(例如 NTSC 使用 29.97fps)。
保存数据
现在我们需要找到一个地方来保存帧:

AVFrame *pFrame;// Allocate video framepFrame=avcodec_alloc_frame();

因为我们准备输出保存 24 位 RGB 色的 PPM 文件,我们必需把帧的格式从原来的转换为 RGB。FFMPEG 将为我们做这些转换。在大多数项目中(包括我们的这个)我们都想把原始的帧转换成一个特定的格式。让我们先为转换来申请一帧的内存。

// Allocate an AVFrame structurepFrameRGB=avcodec_alloc_frame();if(pFrameRGB == NULL)    return -1;

即使我们申请了一帧的内存,当转换的时候,我们仍然需要一个地方来放置原始的数据。我们使用 avpicture_get_size 来获得我们需要的大小,然后手工申请内存空间:

uint8_t *buffer;int numBytes;// Determine required buffer size and allocate buffernumBytes = avpicture_get_size(PIX_FMT_RGB24, pCodecCtx->width, pCodecCtx->height);buffer = (uint8_t *)av_malloc(numBytes * sizeof(uint8_t));

 av_malloc 是 ffmpeg 的 malloc,用来实现一个简单的 malloc 的包装,这样来保证内存地址是对齐的(4 字节对齐或者 2 字节对齐)。 它并不能保护你不被内存泄漏,重复释放或者其它 malloc 的问题所困扰。
 现在我们使用 avpicture_fill 来把帧和我们新申请的内存来结合。AVPicture结构体是 AVFrame 结构体的子集―― AVFrame 结构体的开始部分与 AVPicture 结构体是一样的。

// Assign appropriate parts of buffer to image planes in pFrameRGB// Note that pFrameRGB is an AVFrame, but AVFrame is a superset// of AVPictureavpicture_fill((AVPicture *)pFrameRGB, buffer, PIX_FMT_RGB24, pCodecCtx->width, pCodecCtx->height);

 最后,我们已经准备好来从流中读取数据了。
读取数据
 我们将要做的是通过读取包来读取整个视频流,然后把它解码成帧,最好后转换格式并且保存。

int frameFinished;AVPacket packet;i=0;while(av_read_frame(pFormatCtx, &packet)>=0){        // Is this a packet from the video stream?        if(packet.stream_index == videoStream) {            // Decode video frame            avcodec_decode_video(pCodecCtx, pFrame, &frameFinished, packet.data, packet.size);            // Did we get a video frame?            if(frameFinished) {                // Convert the image from its native format to RGB                img_convert((AVPicture *)pFrameRGB, PIX_FMT_RGB24,                            (AVPicture*)pFrame, pCodecCtx->pix_fmt,                            pCodecCtx->width, pCodecCtx->height);                // Save the frame to disk                if(++i <= 5)                    SaveFrame(pFrameRGB, pCodecCtx->width, pCodecCtx->height, i);            }        }        // Free the packet that was allocated by av_read_frame        av_free_packet(&packet);}

 这个循环过程是比较简单的:av_read_frame()读取一个包并且把它保存到AVPacket 结构体中。注意我们仅仅申请了一个包的结构体 ――ffmpeg 为我们申请了内部的数据的内存并通过 packet.data 指针来指向它。这些数据可以在后面通过 av_free_packet()来释放。函数 avcodec_decode_video()把包转换为帧。然而当解码一个包的时候,我们可能没有得到我们需要的关于帧的信息。因此,当我们得到下一帧的时候,avcodec_decode_video()为我们设置了帧结束标志frameFinished。最后,我们使用 img_convert()函数来把帧从原始格式(pCodecCtx->pix_fmt)转换成为 RGB 格式。要记住,你可以把一个 AVFrame结构体的指针转换为 AVPicture 结构体的指针。最后,我们把帧和高度宽度信息传递给我们的 SaveFrame 函数。
关于包 Packets 的注释
 从技术上讲一个包可以包含部分或者其它的数据,但是 ffmpeg 的解释器保证了我们得到的包 Packets 包含的要么是完整的要么是多种完整的帧。
 现在我们需要做的是让 SaveFrame 函数能把 RGB 信息定稿到一个 PPM 格式的文件中。我们将生成一个简单的 PPM 格式文件,请相信,它是可以工作的。

void SaveFrame(AVFrame *pFrame, int width, int height, int iFrame){    FILE *pFile;    char szFilename[32];    int y;    // Open file    sprintf(szFilename, "frame%d.ppm", iFrame);    pFile=fopen(szFilename, "wb");    if(pFile==NULL)        return;    // Write header    fprintf(pFile, "P6\n%d %d\n255\n", width, height);    // Write pixel data    for(y=0; y<height; y++)    fwrite(pFrame->data[0]+y*pFrame->linesize[0], 1, width*3, pFile);    // Close file    fclose(pFile);}

 我们做了一些标准的文件打开动作,然后写入 RGB 数据。我们一次向文件写入一行数据。PPM 格式文件的是一种包含一长串的 RGB 数据的文件。如果你了解 HTML色彩表示的方式,那么它就类似于把每个像素的颜色头对头的展开,就像#ff0000#ff0000….就表示了了个红色的屏幕。(它被保存成 二进制方式并且没有分隔符,但是你自己是知道如何分隔的)。 文件的头部表示了图像的宽度和高度以及最大的 RGB 值的大小。
 现在,回顾我们的 main()函数。一旦我们开始读取完视频流,我们必需清理一切:

// Free the RGB imageav_free(buffer);av_free(pFrameRGB);// Free the YUV frameav_free(pFrame);// Close the codecavcodec_close(pCodecCtx);// Close the video fileav_close_input_file(pFormatCtx);return 0;

你会注意到我们使用 av_free 来释放我们使用 avcode_alloc_fram 和 av_malloc来分配的内存。
上面的就是代码!下面,我们将使用 Linux 或者其它类似的平台,你将运行:

gcc -o tutorial01 tutorial01.c -lavutil -lavformat -lavcodec -lz -lavutil -lm

如果你使用的是老版本的 ffmpeg,你可以去掉-lavutil 参数:
gcc -o tutorial01 tutorial01.c -lavutil -lavformat -lavcodec -lz -lm

大多数的图像处理函数可以打开 PPM 文件。可以使用一些电影文件来进行测试

阅读全文
0 0
原创粉丝点击