首页 | 官方网站   微博 | 高级检索  
相似文献
 共查询到16条相似文献,搜索用时 72 毫秒
1.
一种基于区域立体匹配算法的实现及改进   总被引:1,自引:1,他引:0  
马岩  王昕  杨剑 《光学精密工程》2008,16(10):2002-2008
在立体视觉中,立体匹配是立体视觉中算法中最重要也是最难的部分。如何更快更精确的建立两幅图像的匹配基元之间的对应关系,以及解决区域匹配算法计算量大等缺点,一直是立体匹配中的热点。文中首先将图象进行外极线校正,在此基础上,采用一种隐含约束条件结合唯一性约束条件的单向匹配算法(SMP算法),完成了初次匹配及初次去除伪匹配,再采用一种伪极线约束条件,对得到的匹配对进行二次去除伪匹配,最后,对得到的视差图进行插值运算,提高了匹配精度。另外,在匹配过程中,通过Box滤波加速方法,减少了计算匹配窗口相似性的复杂度,缩短了程序运行时间,可以满足系统对实时性的要求。  相似文献   

2.
立体匹配是立体视觉中最为关键的一步,对立体视觉具有举足轻重的作用.为了能快速地进行立体匹配,该文结合极线约束和同一点相位相同特性,提出了一种新的基于相位的立体匹配算法.该方法首先根据极线约束确定对应点所在极线,再根据四步相移法得到图像的包裹相位,然后根据合成频率的相位展开方法提取相位,最后在该极线上找到相位相同的对应点.实验证明,与传统的极线最小距离方法相比,大大提高了匹配速度.实验结果验证了算法的有效性.  相似文献   

3.
针对人脸立体匹配中低纹理区域的误匹配率较高的问题,将极线距离变换应用到人脸立体匹配当中。这种变换将图像中像素点的灰度值转化为极线方向上相应区域的位置,使得在低纹理区域中灰度值相似的像素点变得容易区分。因此可以用于提高立体匹配算法在低纹理区域的匹配精度。但是在应用到人脸立体匹配过程中会出现高纹理区域的鲁棒性和精度下降的问题,通过对不同极线长度的极线距离变换结果提取有利的部分进行匹配来解决这一问题。实验结果表明,采用改进后的方法,在人脸的低纹理区域仍然能获得较高的匹配精度,并且降低了计算的复杂度,同时对于人脸中的高纹理区域具有较好的鲁棒性。  相似文献   

4.
提出了一种改进的快速立体匹配算法。对于双目视觉系统采集的2幅图像,首先采用区域匹配算法进行初始快速立体匹配,再采用左右一致性检验剔除误匹配点,得到立体匹配的初始视差图。然后将初始视差作为图割法构图的限制条件,对初始视差图进行二值分割。最后对分割获得的前景区域和背景区域施加不同的限制,并通过修正能量函数,使构图网络大大减小,从而进一步提高了匹配速度。试验结果表明,该算法既提高了立体匹配速度,又保证了匹配精度。  相似文献   

5.
基于弱纹理检测及视差图融合的立体匹配   总被引:1,自引:0,他引:1  
为了在消除弱纹理区域匹配歧义性的同时保证纹理区域的匹配率,提出了一种基于弱纹理区域检测及视差图融合的立体匹配算法.该算法首先根据输入图像的颜色(灰度)变化情况检测出弱纹理区域,然后基于这一检测结果,对输入图像对应用改进的极线距离变换算法,以提高弱纹理区域像素的可区分性,接着,采用窗口匹配算法和置信度传播算法分别对原始输入图像和极线距离变换后的图像计算视差图谱,最后,以弱纹理检测的结果为基准,对这2张视差图谱进行融合,以实现在弱纹理区域和纹理区域的同步最优匹配.通过对弱纹理化后的Middlebury图像库中图像的实验表明,在几乎不增加计算复杂度的同时,该算法的匹配率比当前先进算法提高至少20%,同时,实验还表明了该算法对照度不一致输入图像对匹配的鲁棒性.  相似文献   

6.
立体视觉中的图像立体匹配方法   总被引:1,自引:0,他引:1  
图像立体匹配是立体视觉的核心技术,在三维重建、视觉测量及目标识别等领域中得到了广泛的研究和应用.根据立体匹配技术特点,图像立体匹配可分为三大类:局部立体匹配、全局立体匹配和半全局立体匹配.着重介绍了前两大类中典型的图像立体匹配方法.对各种图像立体匹配方法的匹配算法进行了分析研究,并对图像立体匹配方法的发展提出了一些建议.  相似文献   

7.
基于线性生长的区域立体匹配算法研究   总被引:1,自引:1,他引:1  
图像的区域立体匹配是立体视觉中的重点研究课题之一,实时可靠应用的关键在于视差图的可靠性和计算复杂度.提出了一种基于线性生长的区域立体匹配算法,实现从立体图像对中提取深度信息,获得更可靠视差图的方法.该算法包括根点选择和区域生长2个部分,获得视差图的计算时间短,利用滤波可以提高视差图的可靠度.最后对此算法生成的结果进行了比较分析.  相似文献   

8.
基于极线校正的快速相位立体匹配   总被引:5,自引:2,他引:3  
基于双目结构的投影栅相位法利用相位值建立左右图像对应点匹配关系,但传统相位立体匹配方法匹配速度较慢,因此本文提出了一种基于极线校正的相位立体匹配方法来提高相位立体匹配速度。首先,通过极线校正算法将双目立体视觉几何结构转换成极线标准几何结构,即左图中任意一点在右图的极线是与该点纵坐标相同的水平直线。然后,在对左右相位图进行极线校正的基础上,给出了改进的相位立体匹配方法步骤。最后,通过对实物进行三维重建,分析比较了传统相位立体匹配方法与改进方法的性能。实验结果表明,与传统方法相比,改进的方法将匹配时间缩短了63%,能够满足工业应用对测量速度的要求。  相似文献   

9.
为了实现彩色图像的快速立体匹配,获取准确和致密的视差图,在全局匹配基础上提出了基于区域增长的全局匹配算法,该算法将图像对按行进行区域增长匹配,匹配后的视差图再通过均值滤波器,可以滤除由于误匹配产生的不可靠视差。实验结果表明,在保证可靠性的前提下,采用改进后的匹配算法极大缩短了图像处理时间。  相似文献   

10.
为了提高室内自动物流装置以及工业抓取设备的准确性与速度,提出一种改进的基于跨尺度代价聚合的立体匹配方法。针对传统的基于跨尺度代价聚合的立体匹配方法在低纹理区域、无纹理区域误匹配较高的问题,对不同下采样层的代价卷使用不同的代价聚合方法,使不同下采样层间的不同聚合方法能够相互融合与抑制。为了解决跨尺度代价聚合框架中采用引导滤波时计算耗时较长的问题,引入了快速引导滤波。在偶数下采样层使用快速引导滤波,在奇数下采样层使用区域树代价聚合,从而使新的算法获得更精确的视差图,且极大地减少了计算耗时。  相似文献   

11.
12.
动态规划是双目立体匹配的经典算法,针对控制点动态规划算法易产生横向条纹以及立体匹配普遍的边缘性和弱纹理区域问题,提出一种基于金字塔分层双向动态规划的改进立体匹配算法。该算法将分层模型加入传统动态规划方法,以低像素层级为高像素层级提供控制点集,并在匹配代价计算中采用一种自适应相关性测度函数,加以匹配代价滤波,提高算法精确度及实时性并获取高精度视差图。以Middlebury标准库中的图片以及实拍图片作为实验对象,实验表明所提出的方法具有较好的性能。  相似文献   

13.
基于置信传播的立体匹配并行算法   总被引:1,自引:0,他引:1  
考虑在双目立体视觉匹配算法中置信传播算法虽然能获得较好的视差图但匹配速度较慢,本文提出了一种基于置信传播的并行匹配方法.该方法以置信传播为基础,采用并行机制来提高匹配速度.首先,利用最优边缘算法计算图像中的边缘信息;然后,利用边缘信息将整个待匹配视图切割成若干小的区域,使用OpenMP多核优化算法并行对各个小区域进行匹...  相似文献   

14.
采用统计过程控制方法对二维图像特征点区域定位,并提取二维图像特征点。避免了提取二维图像特征点时,根据被处理图像的先验信息,利用试探方法确定阈值的局限性。在立体匹配时,将灰度相关系数小于最大灰度相关系数一定范围内的特征点作为灰度相关复峰初始匹配特征点集合。根据由正确匹配特征点组成的视差矩阵与对应的基线距矩阵存在极大相关性,从灰度相关复峰初始匹配特征点集合中确定唯一匹配特征点。通过对外形复杂的实际物体及已知精确三维坐标的标准工件的三维重建,证实了文中所提方法的有效性和可靠性。  相似文献   

15.
提出了一种基于生物信息学中双DNA序列比对算法的图像立体匹配新方法。图像立体匹配和生物信息学中双DNA序列比对的实质都是在匹配准则下搜索最佳匹配基元,因而新颖地将双序列比对算法引入图像立体匹配。首先介绍了基于动态规划的双序列比对算法原理及其用于图像立体匹配的实现方法,然后根据左右摄像机的最大视差是一个有限定值,进行了算法改进,极大地减少了计算量,并给出了VC6.0中的实现流程,最后采用4组不同的图像对进行了实验验证。该方法具有较低的计算复杂度和适宜于并行计算的特点,生成的视差图效果表明双序列比对算法为图像立体匹配提供了一个实用有效的方法。  相似文献   

16.
基于行列双向约束的动态规划立体匹配算法   总被引:1,自引:1,他引:0  
为了克服传统的动态规划立体匹配算法会产生明显条纹状瑕疵的缺陷,提出一种同时考虑行列双向约束的动态规划立体匹配算法。该算法首先利用扫描线信息中所包含的视差不连续性和遮挡现象构造出一种新的全局能量代价函数;然后进一步设计了基于此能量代价函数的全局优化策略,在保证扫描线行方向上视差平滑性的基础上,解决了扫描线列方向上的视差不连续性问题;最后通过动态规划寻找最优路径来获得匹配点和遮挡点的视差,从而得到稠密视差图。实验结果表明,所提出的算法不但能够有效消除视差图中的条纹状瑕疵,而且在匹配精度上能够取得较好的效果。  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司    京ICP备09084417号-23

京公网安备 11010802026262号