首页 | 官方网站   微博 | 高级检索  
相似文献
 共查询到19条相似文献,搜索用时 125 毫秒
1.
佘科  谢红 《应用科技》2011,38(5):47-51
针对传统图割立体匹配算法耗时太长以及动态规划立体匹配算法匹配精度不高,且视差图带有条纹瑕疵的问题,提出了一种基于动态规划和图像分割的立体匹配算法.采用自适应多阈值图像分割算法对参考图像进行高效可靠的区域分割,提取边界,使用多种子点动态规划算法精细求取边界上点的视差,并以区域为单元用图割立体匹配算法求取区域内各点的视差,拟合得到图像对的视差图.通过对比,实验结果表明:此算法较传统图割法匹配速度有明显提高,且可以得到匹配精度较高的稠密视差.  相似文献   

2.
针对立体匹配中在低纹理及遮挡区域容易导致误匹配的问题,提出一种改进的基于图像分割的立体匹配算法.首先,采用自适应多边形窗口来对左右图像进行初始匹配,同时通过左右一致性检测得到可靠匹配点;然后根据颜色信息将图像分割为不同区域,运用得到的可靠点计算不同区域的视差模板;将得到的模板结果作为视差估计和能量函数的参考项构造能量函数,使用树形动态规划最小化能量函数计算最优视差.将该算法应用于标准库进行实验,结果表明该算法能够有效地匹配图像,具有较高的匹配精度.  相似文献   

3.
视差图误差检测与校正的通用快速算法   总被引:2,自引:0,他引:2  
为了获取精确的立体匹配结果 ,提出了一种通用的视差图误差检测与校正算法。算法首先定义一个新的全局顺序匹配约束 ;然后将其用于视差图后处理过程 (而不是视差计算过程 )中 ,以检测出视差图中的匹配交叉区域 ;最后提出一种零交叉校正方法 ,校正其中的误匹配点。通过对一组真实立体图像序列及其视差图的实验 ,进一步证明了该算法的有效性。该算法可以作为视差图后处理过程附加在各种立体匹配算法之后  相似文献   

4.
一种基于Census变换的可变权值立体匹配算法   总被引:1,自引:0,他引:1  
针对传统基于Census变换立体匹配算法精度不高的问题,提出了一种基于改进Census变换的可变权值立体匹配算法. 在分析传统Census变换缺陷的基础上,提出利用最小均匀度子邻域均值代替中心像素灰度值进行Census变换,可有效增强算法的抗干扰能力. 通过加权区域海明距离均值和标准差作为相似性测度进行立体匹配,减少误匹配,提高匹配精度并通过左右一致性检测和遮挡填充,生成最终视差图. 实验结果表明,该算法鲁棒性得到增强,在深度不连续区域也可以得到准确的视差.   相似文献   

5.
针对小基高比立体匹配中的"黏合"现象和深度精度问题,提出一种小基高比立体匹配方法.该方法通过将自适应窗口技术和多窗口策略相结合为参考图像确定匹配窗口;然后根据规范化互相关函数和"胜者全取"策略计算整数级视差;再以整数级视差为基础利用基于二分法的亚像素匹配方法计算亚像级视差;最后采用基于图像分割的迭代传播方法以获得稠密视差图.实验结果表明:该立体匹配算法减少了小基高比匹配中的"黏合"现象,同时获得了稠密的高精度亚像素级视差,其亚像素精度可优于1/20个像元.  相似文献   

6.
立体匹配是3D重建过程中的重要问题,而图像本身存在的噪声和相似结构降低了匹配算法的精确度。提出了一种基于种子生长的半稠密视差图算法,将图像匹配得到的特征点作为初始种子点,生长为整个图像上的半稠密匹配图,使用最大相似性子集,依照唯一性约束的原则,修正得到最终的视差图。实验结果证明:本文提出的方法优于以往方法,能够适用于结构相似以及深度变化很大的图像。使用图片为标准模板库图片,开发平台为Visual C++ 6.0。  相似文献   

7.
基于快速立体匹配的基本矩阵估计方法   总被引:3,自引:0,他引:3  
借鉴Harris角点检测时角点自身的特点,提出了基于角特征与灰度相关并参考视差梯度约束的角点匹配方法,利用角特征值比值的约束条件,减少了大量的候选匹配点,提高了立体匹配的速度,实现了快速、准确的立体图像对的角点匹配.在此基础上,进一步采用Hartley提出的改进八点算法,获得了高精度的基本矩阵.实验结果表明该方法具有较高的准确性和实时性,是一种快速有效的立体匹配基本矩阵估计方法.  相似文献   

8.
为提高双目立体匹配算法在弱纹理区域的匹配精度和多尺度空间的匹配一致性,提出基于窗口内像素均值信息判断和自适应权重的改进Census变换算法进行代价计算,提高像素在视差不连续区域的匹配精度.代价聚合阶段引入高斯金字塔结构,将引导图滤波算法融合到多尺度模型中,并添加正则化约束来提高对弱纹理区域的匹配一致性;视差选择阶段中,采用一系列优化方法如误匹配点检测、区域投票策略和亚像素增强等来提高匹配的正确率.实验结果表明,该算法在Middlebury测试集上的平均误码率为5.91%,在弱纹理区域和视差不连续区域能得到较好的视差图,且具有较好的鲁棒性.  相似文献   

9.
立体匹配是三维重建的重要组成部分,被广泛用于数字城市、虚拟现实等领域中.提出了一种基于种子生长的匹配点扩散算法.首先用SIFT算法提取图像间对应的特征点并将其做为种子点,对种子点在其领域范围进行区域传播匹配.接着将生长得到稠密匹配点经重采样转换为准稠密匹配点.最后再用对称对极点距离法去除误匹配得到整幅图像上均匀分布的精...  相似文献   

10.
双目立体视觉匹配通过两幅具有一定视差的图像获得精确、稠密的视差图。为了解决动态规划立体匹配算法橫条纹瑕疵以及精度低的问题,提出了一种基于多邻域非线性扩散的立体匹配算法。该算法采用AD测度函数构建视差空间,根据行列像素之间的约束关系,基于非线性扩散的代价聚合方法,通过图像边缘的动态优化寻求全局能量函数最优值得到稠密视差图。在Middlebury测试集上的实验结果表明,该算法的平均误匹配率为5.60%,相比IIDP动态规划全局匹配算法,精度提高了39.9%,有效地解决了横向条纹问题,改善了边缘模糊情况,且提升了算法的稳定性。与其他全局匹配算法相比,本文算法误匹配率降低了38.2%,在图像参数的11个指标中有9项指标排名第1。  相似文献   

11.
为有效地减少错误匹配,提高匹配精度并恢复稠密深度图像。利用多基线立体视觉恢复景物深度数据的冗余性,使用简单条纹模式投影光源标记景物,很好地解决了弱纹理区域或无纹理区域的对应性问题。通过对图像进行避部规范化处理,在外极线、唯一性和连续性约束条件下,使用应用域知识和统计模型,建立准确的匹配关系,实现三维景物高精度恢复。所恢复景物的高精度稠密深度图像,在1.5~3.5m的距离范围内,深度值偏差小于2mm  相似文献   

12.
在敦煌莫高窟文化遗产数字化保护中,针对基于立体视觉的方法对目标进行三维重建时,复杂表面缺乏特征点,难以获取高密度和高精度空间三维点云的问题,提出了一种基于投影和四目立体视觉的方法。首先,采用投影仪向目标投射黑白棋盘格,并检测角点;然后通过软件细分,将棋盘格在横向和纵向分别平移9次,将棋盘格角点数扩展81倍;最后,用基于四目立体视觉系统的匹配策略,短基距系统用来立体匹配,长基距系统用来计算空间坐标,获取均匀、高密度和高精度的三维点云。实验结果表明:与传统的Harris算子相比较,所提方法获取的三维点云数据能更准确地描述目标的三维结构,点数在数量级上有提高。精度方面,所获取三维点云空间坐标的绝对误差小于1 cm,相对误差小于10%。  相似文献   

13.
从立体图像对中获取精确的三维信息需要进行相机建模、标定和图像点的匹配[1,2].提出了特征点的选取;利用金字塔图像结构进行立体匹配,以及对匹配点进行整体性检验的准则。实验表明,该算法匹配速度快,错误概率小,匹配点在整个景物中分布均匀。  相似文献   

14.
为了提高海面特征点检测的准确度和三维重建的精度,在基于传统的Harris算法的基础上,提出1种基于高斯金字塔图像的改进Harris特征点检测算法.利用搭建的双目相机平台,对海浪图像进行采集并完成相机的标定过程,然后根据改进的角点提取算法对图像的角点进行检测,利用尺度不变特征变换(scale-invariant feature transform,SIFT)算法对海浪图像特征点进行立体匹配得出视差图,最后根据三角测量原理获取图像的深度信息,实现海浪波面的三维信息重建.实验结果证明,在针对海浪图像时,该方法具有更高的精度和准确度.  相似文献   

15.
为了能够提高在一般环境下移动机器人定位的精度,文章采用栅格地图来描述环境;提出基于图像理解的移动机器人定位的概念,将栅格地图当成图像来处理,从而可以将图像配准中的优秀算法引入移动机器人定位中;对于栅格化的图像提取其Harris角点,同时提出两步匹配法寻找相邻2个时刻的2幅图像中匹配的Harris角点。首先采用里程计的数据对角点进行粗匹配,而细匹配采用的是基于随机抽样算法,能够有效地剔除粗匹配过程中误匹配的角点对,提高了定位算法的鲁棒性;最后用非线性最小二乘法估计机器人的位姿。通过实验可以看出在一般的环境中,基于图像理解的定位算法要优于基于线段特征的定位算法。  相似文献   

16.
为了实现摄像机与目标物体之间距离的信息,由双目测量原理,采取结合OpenCV与Matlab的方式,设计出一套关于双目测距的立体视觉系统;系统首先对双目摄像机的内外参数进行标定,从黑白格组成的标定板中获得角点信息,使用亚像素角点检测法对角点坐标信息进行更精确检测,在黑白格组成的标定板分别距离双目摄像机300、400、500、600、700mm处获取不同位置的标定图像,经过张正友标定法最终可以得到双目摄像机所需内外参数;其次通过BM(Block Matching)立体匹配算法在VS2017坏境与opencv3.4.7库配合下完成了摄像机的立体校正、立体匹配进而得到视差图;最后在实验中使用了双目摄像头,并编写了代码通过鼠标点击所得到的视差图获取对应的世界坐标来实现物距的测量;实验结果表明:被测物距离摄像头光心500~700mm这一范围时,实测距离和实际距离相对误差百分比在0.171% ~0.192%之间,且实测距离在2 950mm内实验误差小于5%满足实验精度要求。  相似文献   

17.
一种基于RANSAC的柱面图像配准算法   总被引:1,自引:0,他引:1  
提出了一种基于RANSAC的柱面图像配准算法.首先采用NCC算法对检测出来的Harris角点进行粗匹配,然后采用两次改进的RANSAC算法删除误配,提高正确匹配角点的数量,最后对仿射变换模型参数进行Levenberg-Marquardt非线性优化以进一步降低图像的配准误差.实验结果表明:通过一次改进RANSAC去错配后角点有效匹配率达到约99.2%,通过二次改进RANSAC去错配后角点有效匹配率达到约99.6%,与现有算法相比,在同等条件下获得了更高的匹配有效率.  相似文献   

18.
基于角点检测的图像匹配算法及其在图像拼接中的应用   总被引:5,自引:0,他引:5  
研究了图像匹配与图像角点匹配之间的关系.并在此基础上提出一种基于角点检测的图像匹配算法,成功地应用于图像拼接中.该算法将角点作为图像的特征点,并通过角点值、邻域角点数、角点间距及参数一致性等4个指标对角点集进行逐级筛选,有效地剔除了不匹配的角点,保证了匹配精度,同时避免了传统算法中进行模板匹配的繁重计算,大大提高了匹配速度.图像拼接实验验证了本文算法的快速、准确和稳定的特性.  相似文献   

19.
基于特征匹配算法的双目视觉测距   总被引:1,自引:0,他引:1  
距离测量作为障碍物检测以及路径规划的前提和基础是机器人研究领域的一个重要分支。在众多测距方法中,由于双目立体视觉具有信息丰富、探测距离广等优点被广泛应用。本文将改进的SIFT特征匹配算法应用到双目视觉测距与标定系统中。首先建立双目视觉测距模型,测量值由空间物点在左右摄像机下的像素坐标值决定;其次根据该模型的特点提出了基于平行光轴的双目立体视觉标定方法;最后利用改进的SIFT特征匹配算法,提取匹配点的像素坐标完成视觉测距。实验结果表明,根据测量数据对障碍物进行三维重建,相对距离与真实场景基本吻合,能够有效地指导机器人进行避障。  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司    京ICP备09084417号-23

京公网安备 11010802026262号