图像测距与三维重构
来源:互联网 发布:大掌柜进销存软件 编辑:程序博客网 时间:2024/04/28 05:10
由于图像是三维景物的二维投影,一幅图像本身不具备复现三维景物的全部几何信息的能力,很显然三维景物背后部分信息在二维图像画面上是反映不出来的。因此,要分析和理解三维景物必须作合适的假定或附加新的测量,例如双目图像或多视点图像。
恢复图像中物体深度的方法:立体视觉(stereo vision),由运动估计物体的三维结构(structure from motion),散焦测距(depth from defocus)
一、主动测距:发射人造光照射物体(激光):接触式与非接触式。非接触式又分为:光学主动测距(微波雷达、声呐)和非光学主动测距(结构光场、飞行时间)。
二、被动测距:
1. 立体视觉:将两个(双目)或者以上(多目)摄像头拍摄的物体二维图像进行特征匹配。若物体的某个特征点处于两幅图像中的相投位置,即表明该特征点处在两摄像头轴线的交汇处。通过三角测量原理计算图像像素间的位置偏差来获取景物三维信息。
图像获取——>摄像机定标——>特征提取——>立体匹配——>深度确定——>内插。。。
2. 运动测距: 时间换取空间。不同时间不同空间——>二维图像序列的时空变化提取物体距离表面信息。(图像处理方法上与多目立体视觉类似)
3. 单目测距:
a) 对焦测距(Depth from Focus):采用不同光学参数进行拍摄,在一系列物体图像中找出最清晰的像,根据几何光学成像的原理,计算出物体的深度。可得较为精确、密集的物体的深度信息。但需要再不同光学参数下,对物体拍摄大量图像,难于实时测量;
b) 散焦测距(Depth from Defocus):根据物体散焦程度越大越模糊的原理,利用在不同光学参数下拍摄的两幅或三幅图像来确定散焦点扩散函数的扩散参数。根据散焦扩散参数与物体距离的关系来进行深度计算。
参考:http://www.doc88.com/p-256204314003.html
- 图像测距与三维重构
- 机器视觉 三维图像重构
- 三维重构
- 三维激光测距之三角法测距
- 【实验室:三维重构】已知三维点坐标和对应点图像坐标,求摄像机矩阵P
- 基于Kinect-OpenNI-OpenCV-OpenGL的环境三维重构 windows vs2008 深度彩色图像
- 双目测距(一)--图像获取与单目标定
- SCILAB三维重构工具箱- -
- 图像的形态学重构与骨架
- 图像小波分解与重构
- 小波图像分解与重构
- 三维图像技术与OpenGL基础理论
- 三维图像技术与OpenGL基础理论
- 三维图像技术与OpenGL基础理论
- Avizo三维数据重构软件
- 双目测距与三维重建的opencv问题——图像获取与单目定标
- 图像重构问题
- 树莓派与超声波测距
- 单例设计模式
- java web开发 高并发处理
- 测试
- 字符编码拦截器
- 如何对待别人的赞美和批评?
- 图像测距与三维重构
- JS DOM编程艺术-笔记
- 网线安装水晶头
- HTML5 随手记(4)
- [sqlite] db-journal文件产生原因及说明
- 时间编程
- git stash 命令
- 常见网络协议简介
- 工科生出书籍