首页 | 官方网站   微博 | 高级检索  
相似文献
 共查询到20条相似文献,搜索用时 62 毫秒
1.
传统的立体匹配算法大都基于两幅图像像素点或者局部块的对应性,在单一尺度下求取视差图,但这不能很好地建模低纹理及重复纹理区域的对应关系,致使获得的视差图精度有限。为了改善上述问题,考虑到人眼视觉系统在不同尺度上处理所接收到的视觉信号,提出了跨尺度的重启动与随机游走算法。首先计算场景图像的匹配代价,其次利用超像素分割进行快速初始聚合,然后使用重启动与随机游走算法对其进行全局上的优化,最后采用跨尺度模型实现匹配代价的有效融合更新,继而获取场景图像的视差图。在Middlebury数据集上的实验仿真结果表明,相较于传统的跨尺度立体匹配算法,该算法能够有效地将场景图像在所有区域及非遮挡区域的加权平均误匹配率分别降低1个百分点和3个百分点,获得高精度的视差图。  相似文献   

2.
为了改善立体匹配算法在低纹理和深度跳变区域的匹配性能,提出了一种改进的置信度传播立体匹配算法.首先利用均值漂移算法对图像进行彩色分割,然后通过自适应权重算法计算匹配代价并获取初始视差图,再利用匹配代价可信度检测和左右一致性校验将初始匹配结果按照可靠度分类,最后在全局优化的过程中分别通过可靠度分类和图像分割结果来指导置信...  相似文献   

3.
为提高双目立体匹配算法在弱纹理区域的匹配精度和多尺度空间的匹配一致性,提出基于窗口内像素均值信息判断和自适应权重的改进Census变换算法进行代价计算,提高像素在视差不连续区域的匹配精度.代价聚合阶段引入高斯金字塔结构,将引导图滤波算法融合到多尺度模型中,并添加正则化约束来提高对弱纹理区域的匹配一致性;视差选择阶段中,采用一系列优化方法如误匹配点检测、区域投票策略和亚像素增强等来提高匹配的正确率.实验结果表明,该算法在Middlebury测试集上的平均误码率为5.91%,在弱纹理区域和视差不连续区域能得到较好的视差图,且具有较好的鲁棒性.  相似文献   

4.
立体匹配是视觉导航、三维重建的信息基础.为了降低光照失真对匹配代价计算的影响,消除引导滤波平滑图像时产生的光晕,提出了一种多信息代价计算融合显著梯度的立体匹配算法.设计了融合颜色特征、梯度信息及梯度角度的匹配代价计算算法,对左右视图进行匹配代价计算;然后进行显著性处理,计算显著图的梯度信息,得到图像的局部平均梯度;遍历全图得到全局局部平均梯度作为边缘判断条件,自适应调整引导滤波的正则化参数.实验结果表明,算法有效改善了边缘轮廓及平滑区域的视差,降低了误匹配率.  相似文献   

5.
针对传统局部立体匹配算法在深度不连续区域和低纹理区域匹配精度不高的问题,提出了一种基于SIFT描述子的自适应聚合权重立体匹配算法.算法首先采用梯度域的幅值和相位获取初始匹配代价;然后利用相似性区域判决准则获得各个中心点的自适应矩形聚合窗口,并利用各点SIFT描述子的L1范数进行自适应聚合权重计算.仿真实验结果表明,该算法能够有效地提高低纹理区域和深度不连续区域的立体匹配精度,获得较高精度的视差图.  相似文献   

6.
针对立体匹配中弱纹理区域和深度不连续区域的匹配精度问题,提出了一种基于多特征融合的树形结构代价聚合立体匹配算法.首先,融合图像颜色、梯度和图像的Census变换进行匹配代价计算;然后,在由原始图像生成的最小生成树上进行匹配代价聚合,并使用多方向扫描线优化,进一步提升立体匹配的精确度;最后,使用左右一致性检测标记出误匹配点,并进行视差修正.为了验证该算法的有效性,使用Middlebury测试集提供的测试图像进行测试,平均误匹配率为6.38%;分别对2种场景实际拍摄图像进行深度信息提取误差率测试,测试得到2种场景的测距误差率分别为5.76%和5.55%,证明了该算法的实用性.  相似文献   

7.
立体匹配通过计算和标识匹配图像的视差图来获得图像的深度信息,一般计算量大,无法满足实时性要求。本文聚焦立体匹配的匹配代价聚集和视差计算环节,在动态规划方法的基础上,提出了一种实时的立体匹配算法。根据连续性约束,提出了基于自适应形状窗口的快速匹配代价聚集算法,加速了臂长和匹配代价聚集的计算效率;利用边缘检测技术获得图像边界信息,修改动态规划的转移方程,使得边界像素可以在整个视差空间中选择视差值,降低边界处匹配视差的误匹配率。实验结果表明:通过结合上述两个步骤的改进算法,可以获得满足实时性要求、高质量的匹配视差图,整体的匹配准确率较高。  相似文献   

8.
立体匹配是双目立体视觉的关键步骤和难点问题,制约着双目视觉系统的应用。图像的噪声、遮挡、弱纹理等问题使得匹配精度低。为了解决这些难点问题,文中提出了一种基于激光散斑的立体匹配算法。首先根据激光散斑特点,提出了一种基于梯度方向的匹配代价计算方法;然后将半全局匹配和导向滤波器串联起来进行代价聚合,以满足实时性要求和提高算法对倾斜平面的适应能力;最后,根据匹配代价的平均值与最小值,提出了一种可靠性检验方法,以处理遮挡和物体边缘视差不连续的问题。文中匹配算法在物流行业中的应用结果表明,该算法可以实时测量包裹尺寸,测量精度可以达到±5%。  相似文献   

9.
为解决局部立体匹配算法存在深度图边界区域不连续问题,本文提出了一种基于边缘约束的自适应引导滤波立体匹配算法。将梯度值和颜色信息结合进行匹配代价计算;然后,基于图像边缘局部特征,对图像的像素点基于颜色阈值和边界条件构建自适应十字交叉区域,并对自适应窗口进行引导滤波代价聚合;最后,采用胜者为王策略(winner takes all,WTA)进行视差计算,对视差图进行视差精细化处理。实验结果表明:本文算法生成的深度图能够更好地保留细节特征,边界纹理区域的误匹配现象明显改善,可有效降低误匹配率,本文算法在Middlebury数据集误匹配率仅为5.22%。  相似文献   

10.
一种基于Census变换的可变权值立体匹配算法   总被引:1,自引:0,他引:1  
针对传统基于Census变换立体匹配算法精度不高的问题,提出了一种基于改进Census变换的可变权值立体匹配算法. 在分析传统Census变换缺陷的基础上,提出利用最小均匀度子邻域均值代替中心像素灰度值进行Census变换,可有效增强算法的抗干扰能力. 通过加权区域海明距离均值和标准差作为相似性测度进行立体匹配,减少误匹配,提高匹配精度并通过左右一致性检测和遮挡填充,生成最终视差图. 实验结果表明,该算法鲁棒性得到增强,在深度不连续区域也可以得到准确的视差.   相似文献   

11.
针对立体匹配中在低纹理及遮挡区域容易导致误匹配的问题,提出一种改进的基于图像分割的立体匹配算法.首先,采用自适应多边形窗口来对左右图像进行初始匹配,同时通过左右一致性检测得到可靠匹配点;然后根据颜色信息将图像分割为不同区域,运用得到的可靠点计算不同区域的视差模板;将得到的模板结果作为视差估计和能量函数的参考项构造能量函数,使用树形动态规划最小化能量函数计算最优视差.将该算法应用于标准库进行实验,结果表明该算法能够有效地匹配图像,具有较高的匹配精度.  相似文献   

12.
双目立体视觉匹配通过两幅具有一定视差的图像获得精确、稠密的视差图。为了解决动态规划立体匹配算法橫条纹瑕疵以及精度低的问题,提出了一种基于多邻域非线性扩散的立体匹配算法。该算法采用AD测度函数构建视差空间,根据行列像素之间的约束关系,基于非线性扩散的代价聚合方法,通过图像边缘的动态优化寻求全局能量函数最优值得到稠密视差图。在Middlebury测试集上的实验结果表明,该算法的平均误匹配率为5.60%,相比IIDP动态规划全局匹配算法,精度提高了39.9%,有效地解决了横向条纹问题,改善了边缘模糊情况,且提升了算法的稳定性。与其他全局匹配算法相比,本文算法误匹配率降低了38.2%,在图像参数的11个指标中有9项指标排名第1。  相似文献   

13.
提出了基于区域的立体匹配算法,实现从彩色立体图像对中提取深度信息.其中利用平滑函数求取全局错误能量最小化获得的视差图更为可靠,但是计算时间也较长;而采用线性生长算法获得的视差图则计算时间短,但可靠性差.结果是利用滤波去掉了不可靠的视差估计,可以提高视差图的可靠度,还对算法生成的结果进行了比较.  相似文献   

14.
提出一种以图像片段为单位进行立体匹配的方法,与传统的以像素为单位的立体方法不同的是,本文使用图像的边缘信息将参考图像分成小的片段,同时在水平和垂直方向上以小的片段为单位进行立体匹配,然后进行视差图像的融合,提高了匹配的准确性.在片段内,本文将匹配代价分为高代价与低代价,以不同的计算方式统计两种代价值对整个片段的代价贡献,这种计算方式可以准确地匹配物体被部分遮挡时的情况;接下来对原参考图像进行低位数放大,对片段内的视差值根据低位数放大后的参考图像再次查找精确视差;最后,依据原始的参考图像,使用同色域均值滤波对获得的视差图进行填补与平滑操作.经实验证明,本方法具有算法运算复杂度低,速度快,匹配准确和物体的边缘视差清晰的特点,在Middlebury图像库的测试中获得了较好的实验结果.  相似文献   

15.
针对小基高比立体匹配中的"黏合"现象和深度精度问题,提出一种小基高比立体匹配方法.该方法通过将自适应窗口技术和多窗口策略相结合为参考图像确定匹配窗口;然后根据规范化互相关函数和"胜者全取"策略计算整数级视差;再以整数级视差为基础利用基于二分法的亚像素匹配方法计算亚像级视差;最后采用基于图像分割的迭代传播方法以获得稠密视差图.实验结果表明:该立体匹配算法减少了小基高比匹配中的"黏合"现象,同时获得了稠密的高精度亚像素级视差,其亚像素精度可优于1/20个像元.  相似文献   

16.
在传统的局部立体匹配算法中,代价聚合要对相关邻域内的点进行加权聚合,这种方式计算量大,非常耗时。文章提出一种基于最小生成树的立体匹配算法,该方法将图论中的最小生成树引入代价聚合和视差细化中,使得图像中所有点都对兴趣点进行聚合支持,弥补了局部算法在弱纹理区误匹配率高的局限性,提高了匹配的准确性,并且最小生成树能够对图像所有点进行层次性的划分,极大地简化了计算量。实验证明,该算法能够快速得到平滑且精度高的视差图。  相似文献   

17.
为了提高无纹理区域视差计算结果, 在利用光场子孔径图像立体匹配估计无纹理区域的视差时, 采用量化的光场子孔径图像之间的几何关系代替像素值进行立体匹配。根据光场子孔径图像之间的几何关系, 计算像素点的极线分割比, 用极线分割比代替子孔径图像像素值, 提高了像素可区分性。实验结果表明, 利用分割比图像得到的视差图结果明显优于利用子孔径图像得到的结果。  相似文献   

18.
基于控制点约束及区域相关的立体匹配算法   总被引:2,自引:0,他引:2  
立体匹配是计算机视觉的关键问题.为了得到准确匹配的稠密视差图,通过对基于特征和基于区域立体匹配算法的讨论,结合这两种算法的优点,提出一种新的基于控制点及区域相关的立体匹配算法.该方法首先在利用Harris角点检测算法检测出角点的基础上,对角点进行立体匹配得到精确的匹配点对即控制点,然后在控制点的约束下对非角点像素进行基于区域相关的立体匹配,得到整体稠密的视差图.这样既缩小了匹配搜索空间,又保证了匹配的可靠性.  相似文献   

19.
视差图误差检测与校正的通用快速算法   总被引:2,自引:0,他引:2  
为了获取精确的立体匹配结果 ,提出了一种通用的视差图误差检测与校正算法。算法首先定义一个新的全局顺序匹配约束 ;然后将其用于视差图后处理过程 (而不是视差计算过程 )中 ,以检测出视差图中的匹配交叉区域 ;最后提出一种零交叉校正方法 ,校正其中的误匹配点。通过对一组真实立体图像序列及其视差图的实验 ,进一步证明了该算法的有效性。该算法可以作为视差图后处理过程附加在各种立体匹配算法之后  相似文献   

20.
本文提出一种面向非结构化环境的快速立体视觉稠密匹配算法,能有效解决弱纹理、岩石局部遮挡条件下的精确立体视觉稠密匹配问题。该算法利用外极线约束缩小搜索区域的候选匹配点,有效解决遮挡和深度不连续的影响,利用Mean-Shift算法构建一个自适应阈值函数来分割图像,再对稠密视差图进行初值优化,提高了高相似度与弱纹理区域内的视差估计精度。利用本算法对实际环境图像和标准测试图像进行处理,实验结果表明对环境中的遮挡和弱纹理问题具有良好的鲁棒性,在室内外环境下均能够获取高质量稠密视差图。  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司    京ICP备09084417号-23

京公网安备 11010802026262号