Android开发日志 摄像头视频流捕获
来源:互联网 发布:杨元元之死 知乎 编辑:程序博客网 时间:2024/05/17 07:26
Android开发日志 摄像头视频流捕获
这个是前几日做的东西
原理是利用手机的摄像头取景,然后解码视频流
拆分成位图,然后对位图进行处理和识别
要在android手机里面捕获视频流
当然,手机必须得有摄像头
然后嘛,第一步是在AndroidManifest.xml加入如下权限声明
<permission android:name="android.permission.CAMERA"></permission><uses-permission android:name="android.permission.CAMERA" /><uses-feature android:name="android.hardware.camera" /><uses-feature android:name="android.hardware.camera.autofocus" />
摄像头的预览和捕获只能通过surfaceview..
而且他的工作模式必须是SurfaceHolder.SURFACE_TYPE_PUSH_BUFFERS
不然不能在surfaceview里面显示出预览的图像
然后在surfaceCreated方法里面加入我们的摄像头初始化
public void surfaceCreated(SurfaceHolder arg0) { //启动相机服务 mCamera = Camera.open(); Log.i("Camera", "surface open"); try { //设置预览 这个holder是 SurfaceView的getHolder()方法得到的
mCamera.setPreviewDisplay(holder);
Camera.Parameters parameters = mCamera.getParameters(); //设置图片格式 parameters.setPictureFormat(PixelFormat.JPEG); //设置预览的帧数,受硬件影响.
parameters.setPreviewFrameRate(10);
//设置尺寸 parameters.setPreviewSize(preV.getWidth(), preV.getHeight()); mCamera.setParameters(parameters); //设置回调的类
mCamera.setPreviewCallback(new ViewCallback(preV, this)); //开始预览 mCamera.startPreview(); } catch (Exception e) { //释放相机 mCamera.release(); mCamera = null; return; }}
然后看看我们的ViewCallback类
在这个类里面要实现PreviewCallback
主要是里面的 public void onPreviewFrame(byte[] data, Camera arg1) {}
data就是返回的数据流了, 不过麻烦的是这个流并不是rgb编码的,是YUV420SP编码的,
Camera.Parameters 里面有个setPreviewFormat() 这个虽然可以设置 但是具体能不能编码成JPEG是受你的手机影响的
老老实实得解码吧...网上关于YUV420SP编码的内容相当相当少..
static public void decodeYUV420SP(byte[] rgbBuf, byte[] yuv420sp, int width, int height) { final int frameSize = width * height;if (rgbBuf == null)throw new NullPointerException("buffer 'rgbBuf' is null");if (rgbBuf.length < frameSize * 3)throw new IllegalArgumentException("buffer 'rgbBuf' size "+ rgbBuf.length + " < minimum " + frameSize * 3);if (yuv420sp == null)throw new NullPointerException("buffer 'yuv420sp' is null");if (yuv420sp.length < frameSize * 3 / 2)throw new IllegalArgumentException("buffer 'yuv420sp' size " + yuv420sp.length+ " < minimum " + frameSize * 3 / 2); int i = 0, y = 0; int uvp = 0, u = 0, v = 0; int y1192 = 0, r = 0, g = 0, b = 0; for (int j = 0, yp = 0; j < height; j++) { uvp = frameSize + (j >> 1) * width; u = 0; v = 0; for (i = 0; i < width; i++, yp++) { y = (0xff & ((int) yuv420sp[yp])) - 16; if (y < 0) y = 0; if ((i & 1) == 0) { v = (0xff & yuv420sp[uvp++]) - 128; u = (0xff & yuv420sp[uvp++]) - 128; } y1192 = 1192 * y; r = (y1192 + 1634 * v); g = (y1192 - 833 * v - 400 * u); b = (y1192 + 2066 * u); if (r < 0) r = 0; else if (r > 262143) r = 262143; if (g < 0) g = 0; else if (g > 262143) g = 262143; if (b < 0) b = 0; else if (b > 262143) b = 262143; rgbBuf[yp * 3] = (byte)(r >> 10); rgbBuf[yp * 3 + 1] = (byte)(g >> 10); rgbBuf[yp * 3 + 2] = (byte)(b >> 10); } } }
具体怎么实现的我就不是很清楚了..好像是灰度在前面 然后把蓝色和青色混合成一个变量跟在后面..
但是呢.这个方法效率很低..特别是些cpu差的机器
可以数数..每次都是横向*纵向 算法复杂度挺高的..
然后我把他压缩了10倍..就是每隔10个点取一次,效率瞬间就上来了.
现在运行你的程序, 你可能会发现摄像头的样子很奇怪。
其实是因为屏幕方向的问题
把你的屏幕设置为永久横向即可
this.setRequestedOrientation(ActivityInfo.SCREEN_ORIENTATION_LANDSCAPE);//覆盖屏幕 不显示通知栏this.requestWindowFeature(Window.FEATURE_NO_TITLE);getWindow().setFlags(WindowManager.LayoutParams.TYPE_STATUS_BAR, WindowManager.LayoutParams.TYPE_STATUS_BAR);
- Android开发日志 摄像头视频流捕获
- Android开发日志 摄像头视频流捕获
- Android libv4l2-android 摄像头视频捕获
- OpenCV捕获视频和摄像头
- 使用ffmpeg捕获USB外部摄像头视频流
- 使用ffmpeg捕获USB外部摄像头视频流实时播放
- 使用ffmpeg捕获USB外部摄像头视频流
- 从文件或摄像头捕获视频
- VideoCapture_read.py 用摄像头捕获视频
- 使用directshow控制摄像头预览捕获视频
- 图像处理3:摄像头捕获视频
- Android crash 日志捕获
- Android crash 日志捕获
- Android crash 日志捕获
- android crash日志捕获
- android 摄像头和视频
- 实现怎样在android开发中捕获应用中的日志
- android开发技巧-记录未捕获的crash异常日志
- Java序列化【草案三】
- Object Recognition and Scene Understanding(九)模型转化Mat-〉XML
- 好用的网站推荐
- java序列化的实现
- python版webpower的edm的api接口
- Android开发日志 摄像头视频流捕获
- ASP.NET调用存储过程并接收存储过程返回值
- 为什么程序员要树立自己的品牌
- 携我手,共赴一场盛世的花季
- GDI+ —— Tcanvas 类属性及方法.......
- 总结的全球范围内的计算机视觉牛人 3... ... (国内外)持续更新
- 浅析Java的异常处理机制
- 携我手,共赴一场盛世的花季
- Linux任务前后台的切换