iOS-获取视频的任意一帧
来源:互联网 发布:电影网络版权 编辑:程序博客网 时间:2024/05/14 04:36
原文:http://blog.txx.im/blog/2013/09/04/ios-avassertimagegenerator/
项目要求根据服务器返回的视频和秒数,生成该视频的预览图。
网上一搜关键词 “iOS 视频 帧” 结果都是:iOS如何获取视频的第一帧。
但是如果我不想要第一帧,要第s秒的第x帧怎么办?
先贴如何获取第一帧的代码:
123456789101112131415
- (UIImage*) getVideoPreViewImage{ AVURLAsset *asset = [[AVURLAsset alloc] initWithURL:videoPath options:nil]; AVAssetImageGenerator *gen = [[AVAssetImageGenerator alloc] initWithAsset:asset]; [asset release]; gen.appliesPreferredTrackTransform = YES; CMTime time = CMTimeMakeWithSeconds(0.0, 600); NSError *error = nil; CMTime actualTime; CGImageRef image = [gen copyCGImageAtTime:time actualTime:&actualTime error:&error]; UIImage *img = [[[UIImage alloc] initWithCGImage:image] autorelease]; CGImageRelease(image); [gen release]; return img;}
这是很不求甚解的做法,有好多问题都没有考虑到。
一般来说,如果我们打算求第x秒 看如上代码,想都不用想的就去把
1
CMTime time = CMTimeMakeWithSeconds(0.0, 600);
改成想要的时间了,但是,跑一下就会发现差强人意。
为什么呢?
我们先要说CMTime 是什么东西。
CMTime
CMTime 是一个用来描述视频时间的结构体。
他有两个构造函数: * CMTimeMake * CMTimeMakeWithSeconds
这两个的区别是
* CMTimeMake(a,b)
a:当前第几帧, b:每秒钟多少帧.当前播放时间a/b
* CMTimeMakeWithSeconds(a,b)
a:当前时间,b:每秒钟多少帧.
我们引用例子来说明它:
- CMTimeMakeWithSeconds
1234
Float64 seconds = 5;int32_t preferredTimeScale = 600;CMTime inTime = CMTimeMakeWithSeconds(seconds, preferredTimeScale);CMTimeShow(inTime);
OUTPUT: {3000/600 = 5.000}
代表当前时间为5s,视频一共有3000帧,一秒钟600帧
- CMTimeMake
1234
int64_t value = 10000;int32_t preferredTimeScale = 600;CMTime inTime = CMTimeMake(value, preferredTimeScale);CMTimeShow(inTime);
OUTPUT: {10000/600 = 16.667}
代表时间为16.667s, 视频一共1000帧,每秒600帧
其实,在我们这里,我们关心的只有最后那个总时间。 换句话说,我们把那个(0, 600)换成(x, 600) 是没问题的… = =!
requestedTimeTolerance
那么为什么,效果差了这么多呢? 我们可以把
123
CGImageRef image = [gen copyCGImageAtTime:time actualTime:&actualTime error:&error];
返回的 actualTime 输出一下
1
CMTimeShow(actualTime)
就会发现时间差的很远。 这是为什么呢。
首先他的 actualTime 使用的 fps * 1000 当每秒的帧率。 顺路普及下fps的获取方法
1
float fps = [[[asset tracksWithMediaType:AVMediaTypeVideo] objectAtIndex:0] nominalFrameRate];
然后我们来思考为什么要有 requestTime 和 actualTime 呢? 开始我对这个api 很困惑: 为什么我request的时间 不等于 actual
后来查了一下文档。
当你想要一个时间点的某一帧的时候,他会在一个范围内找,如果有缓存,或者有在索引内的关键帧,就直接返回,从而优化性能。
这个定义范围的API就是 requestedTimeToleranceAfter 和 requestedTimeToleranceBefore
如果我们要精确时间,那么只需要
12
gen.requestedTimeToleranceAfter = kCMTimeZero; gen.requestedTimeToleranceBefore = kCMTimeZero;
- iOS 获取视频的任意一帧
- iOS 获取视频的任意一帧
- iOS 获取视频的任意一帧
- iOS 获取视频的任意一帧
- iOS 获取视频的任意一帧
- iOS 获取视频的任意一帧
- iOS-获取视频的任意一帧
- iOS 获取视频的任意一帧图像
- Opencv + Qt 获取视频中任意一帧
- 获取iOS任意线程调用堆栈(一)获取任意线程的调用栈地址列表
- IOS 获取视频图片的
- ios 获取视频的总时长
- ios 获取视频的总时长
- IOS 获取视频图片的
- iOS获取视频的缩略图
- 用FFmpeg从视频截取任意一帧图片的解决办法~
- 用FFmpeg从视频截取任意一帧图片的解决办法
- 用FFmpeg从视频截取任意一帧图片的解决办法~
- ubuntu及windows下工具
- eclipse导入包的一些奇怪的事情
- WKWebView 白屏问题
- IDEA 快捷键 fro mac
- 简单的发布脚本
- iOS-获取视频的任意一帧
- 使Qt5.6支持读取中文路径文件
- Spring 注解说明
- Leetcode题解 - 15. 3Sum
- Servlet 监听器入门
- 回顾我的2016年
- 随机生成个人信息
- ant style介绍和在spring中的应用
- MySql5.7安装过程