首页 | 官方网站   微博 | 高级检索  
相似文献
 共查询到20条相似文献,搜索用时 269 毫秒
1.
针对传统方法难以可靠估计图像中纹理单一像素点视差的问题,提出一种新的基于纹理分析的视差估计算法。与已有方法不同,在以极线约束计算像素点视差时,将极线上纹理单一且近似的像素点合并成直线段,根据连续性和唯一性约束对直线段进行整体匹配,采用直线段的视差得到纹理单一区域的稠密视差图。利用直线段进行整体匹配,提高比较基元包含的信息量,减少扫描范围,从而降低误匹配产生的概率和算法时间复杂度。实验结果表明,该方法能提高纹理单一区域稠密视差图的精度,匹配速度快,具有实用价值。  相似文献   

2.
深度图像中视差跳变的像素点匹配一直是立体匹配的挑战性问题之一.基于引导滤波的局部立体匹配算法通过考虑匹配图像内容,可以在保持深度图像边缘的同时提高匹配精度、加快匹配速度,但引导滤波会产生图像光晕,在图像边缘区域也会引入大量的噪声.为此,将引导滤波的岭回归扩展到多元回归,提出一种基于多元线性回归的立体匹配算法.首先将引导滤波中只含图像像素值这一单变量的回归方程扩展为基于图像像素值和梯度信息等多个变量的多元回归方程,对初始代价值进行滤波聚合,并与单独进行引导滤波的匹配代价聚合值进行加权组合提高图像边缘的匹配效果;然后根据代价聚合最小值与次小值之间的相互关系定义了视差选择可信度,解决了视差选择时的歧义问题.在Middlebury测试平台进行了实验的结果表明,文中算法有效地提高深度图像中视差跳变像素点的匹配精度,降低了匹配噪声;与最新的高性能立体匹配算法相比,该算法可以以较小的计算复杂度获得高质量的视差图.  相似文献   

3.
自适应窗口的时间规整立体匹配算法   总被引:10,自引:3,他引:7  
针对立体视觉中图像对应点的误匹配问题,以时间规整算法(DTW)为基础,提出了自适应窗口的立体匹配算法.根据外极线的约束,在自适应窗口内采用灰度相关技术得到长度不相等的两个灰度段作为相容的匹配序列;利用动态规划法及连续性约束寻找一条最佳的匹配路径.根据回溯得到的匹配路径及其坐标值得到高密度视差图.实验结果表明,该算法具有较高的运行效率和良好的匹配效果.  相似文献   

4.
目的 基于区域的局部匹配算法是一种简单高效的立体匹配方法.针对局部算法中窗口的抉择问题,提出了基于垂直交叉双向搜索的自适应窗口匹配算法.方法 该算法考虑到局部区域内灰度值与视差值的相关性,通过垂直交叉双向搜索策略自适应地调节窗口的形状和大小,并获得相应掩码窗口;再利用积分图像计算掩码窗口的匹配代价,获取视差图;最后采用米字投票和双边滤波器两个步骤对视差图进行修复.结果 针对不同图像采用提出的自适应窗口算法,得到了适用于各种图像结构的匹配窗口,相较于原始垂直交叉算法的匹配精度提高了约30% (Teddy),同时两步骤视差后处理较好地保持了图像边缘.结论 实验结果表明,该算法改善了规则窗口产生的视差边缘扩充问题,在提高视差精度的同时提高了算法鲁棒性.  相似文献   

5.
针对极线距离变换对噪声的敏感性及其在不连续区域匹配的不确定性,提出一种基于自适应极线距离变换的立体匹配算法.自适应极线距离变换利用图像结构特征,提出迭代目标尺度算法与区域不连续图来自适应选择极线距离变换参数,将图像的强度信息转化为沿着极线局部分割区域的相对位置信息,在区分低纹理区域像素点的同时保持了图像边缘信息;采用局部极小窗口均值计算分割线长度,有效地提高了低纹理区域对噪声的鲁棒性.对多幅真实图像的实验结果表明,自适应极线距离变换对低纹理区域以及不连续区域是有效的,且采用变换后图像计算视差的立体匹配算法,有效地降低了图像边缘点和噪声点等不连续区域的误匹配率,提高了图像匹配精度.  相似文献   

6.
文中提出了一种新颖的基于窗口的立体匹配方法,该方法首先在最大窗口内估计视差,并假设该窗口内视差一致,在此基础上得到两个最大的匹配窗口,然后在这两个最大窗口内进行二次匹配,得到基于这两个窗口的逐像素视差,估计视差和像素视差之和就是结果视差。对相对较平滑或平滑均匀的区域,在匹配过程中,会出现匹配最小多值问题,面临如何确定最佳匹配。本文算法采用平滑性测度指标函数来屏蔽平滑或平滑均匀区域,并在匹配完成后,按照最近邻视差均值来估计平滑区域的视差。最后通过立体图像对算法进行了测试。实验结果表明,该方法是可行和有效的。  相似文献   

7.
提出了一种改进的视差匹配算法.采用基于图像彩色分割的自适应权重方法,提高了DSM算法中像素点显著性估计的准确度,降低了视差匹配的误匹配率;并利用同一彩色区域的像素视差的相关性,缩小了视差匹配的搜索范围,减少了视差匹配的运算量.使用Middlebury网站的标准测试图像对文中的视差匹配算法进行了评估,实验结果表明,提出的视差匹配算法与DSM算法相比,降低了误匹配率,并且提高了运算速度.  相似文献   

8.
利用无人机双目图像实现线目标的测量对输电线路巡检具有重要的意义。为提高无人机双目图像下线目标的测量精度,改进Census立体匹配算法,在代价聚合过程中,首先对聚合窗口中的初始匹配代价进行异常筛选,然后计算聚合代价值进而生成视差图,实验证明改进立体匹配算法,提高图像立体匹配精度,且平均误匹配率为5.79%;在线目标测量方面,针对线目标视差图存在的缺陷,提出一种基于目标识别的线目标视差图优化算法,该算法依据目标识别获取线目标视差图,然后根据四个原则进行优化处理,最后将优化后的线目标视差图用于测量,实验证明采用优化后的线目标视差图测量得到结果要优于直接采用视差图得到测量结果。  相似文献   

9.
由于在图像中不同区域的纹理密集程度不同,因此使用固定窗口大小的算法无法兼顾纹理不同的区域,并且在视差不连续区域的匹配精度较低。针对该问题,提出一种自适应窗口和自适应权重相结合的算法,并且采用种子点扩展的方法。首先,通过交叉自适应窗口法,区分出连续点和孤立点,对于不同的分类点采用不同的处理方法。其次,针对每一个像素点,利用改进的自适应权重方法进行匹配。最后,提出一种新的种子点扩展的视差优化方法,对初始视差图进行精细化。实验结果表明,视差图中纹理密集区域和视差不连续区域的误匹配现象得到改善。该算法可以有效地处理图像中纹理分布不均的问题,提高了在视差不连续区域内匹配精度。  相似文献   

10.
傅青山  雷仲魁 《福建电脑》2010,26(3):82-83,86
针对立体匹配过程中存在的不确定性和模糊性,本文提出先利用匹配的边缘特征点对极线进行初分割.然后利用区域生长算法进行颜色分段,在颜色段的基础上进行时间规整的立体匹配算法。根据外极线约束。在视差范围窗口内采用颜色相似极大得到长度不相等的两个像素段作为相容的匹配序列,利用动态规划方法及连续性约束寻找一条最佳的匹配路径,根据回溯得到匹配路径及其坐标值得到高密度视差图。实验结果表明该算法具有良好的匹配效果。  相似文献   

11.
作为双目三维重建中的关键步骤,双目立体匹配算法完成了从平面视觉到立体视觉的转化.但如何平衡双目立体匹配算法的运行速度和精度仍然是一个棘手的问题.本文针对现有的局部立体匹配算法在弱纹理、深度不连续等特定区域匹配精度低的问题,并同时考虑到算法实时性,提出了一种改进的跨多尺度引导滤波的立体匹配算法.首先融合AD和Census变换两种代价计算方法,然后采用基于跨尺度的引导滤波进行代价聚合,在进行视差计算时通过制定一个判断准则判断图像中每一个像素点的最小聚合代价对应的视差值是否可靠,当判断对应的视差值不可靠时,对像素点构建基于梯度相似性的自适应窗口,并基于自适应窗口修正该像素点对应的视差值.最后通过视差精化得到最终的视差图.在Middlebury测试平台上对标准立体图像对的实验结果表明,与传统基于引导滤波器的立体匹配算法相比具有更高的精度.  相似文献   

12.
目的 立体匹配是计算机双目视觉的重要研究方向,主要分为全局匹配算法与局部匹配算法两类。传统的局部立体匹配算法计算复杂度低,可以满足实时性的需要,但是未能充分利用图像的边缘纹理信息,因此在非遮挡、视差不连续区域的匹配精度欠佳。为此,提出了融合边缘保持与改进代价聚合的立体匹配。方法 首先利用图像的边缘空间信息构建权重矩阵,与灰度差绝对值和梯度代价进行加权融合,形成新的代价计算方式,同时将边缘区域像素点的权重信息与引导滤波的正则化项相结合,并在多分辨率尺度的框架下进行代价聚合。所得结果经过视差计算,得到初始视差图,再通过左右一致性检测、加权中值滤波等视差优化步骤获得最终的视差图。结果 在Middlebury立体匹配平台上进行实验,结果表明,融合边缘权重信息对边缘处像素点的代价量进行了更加有效地区分,能够提升算法在各区域的匹配精度。其中,未加入视差优化步骤的21组扩展图像对的平均误匹配率较改进前减少3.48%,峰值信噪比提升3.57 dB,在标准4幅图中venus上经过视差优化后非遮挡区域的误匹配率仅为0.18%。结论 融合边缘保持的多尺度立体匹配算法有效提升了图像在边缘纹理处的匹配精度,进一步降低了非遮挡区域与视差不连续区域的误匹配率。  相似文献   

13.
分析了区域算法中SAD在非纹理区域容易产生错误匹配的缺点,提出了一种利用邻域边界差值模板的彩色图像立体匹配新算法。该算法利用了图像的边界信息来动态选择基准点邻域范围内的边界点,以该点为中心取一像素邻域作为伴随窗,将伴随窗的颜色信息加入到评价函数中以达到减少非纹理区域错误匹配目的。该算法的实验结果通过Middlebury网站评测,证明能够得到浓密视差图的同时有效地减少了非纹理区域的错误匹配。而且该算法简单易于实现,精度较高,具有良好的匹配效率。  相似文献   

14.
基于区域分割和邻域相关性的立体匹配算法   总被引:1,自引:1,他引:0       下载免费PDF全文
冯林  孙焘  韩宁 《计算机工程》2009,35(11):7-9,12
提出一种在图像分割基础上生成稠密视差图的立体匹配算法,利用滑动窗口生成鲁棒性较好的视差空间图DSI,运用分水岭算法将图像分割成多个小区域,根据每个区域在视差空间图内的视差分布情况计算该区域的信赖度,并综合各区域的邻域对其产生的影响,以获得稠密视差图,采用国际标准数据对该算法进行测试,实验结果表明,该算法能够获得较好的匹配结果。  相似文献   

15.
针对传统置信传播(BP)立体匹配算法运算次数较多、效率低下的问题,提出了一种基于像素灰度绝对误差和(SAD)和BP的快速收敛立体匹配算法。首先使用SAD作为代价函数来计算初始视差值,并将可靠视差值作为约束项加入全局算法BP的能量函数中,进行全局的能量函数的优化;然后在优化过程中更新计算每个像素点的置信度时,考虑当前像素点自适应大小邻域内像素点对它的信息传递,而忽略距离较远的像素点的影响,从而减少了置信传播节点数并提高了置信度收敛的速度。实验结果表明,提出的算法在保持相近匹配精度的前提下,运行时间减少了50%~60%,提高了立体匹配效率,为实时应用打下了基础。  相似文献   

16.
针对传统立体匹配算法无法同时为图像边缘和低纹理区域提供一个合适大小的聚合窗口而导致匹配精度较低的难题,提出一种结合高斯混合模型及最小生成树结构的立体匹配算法。通过图像初始视差、像素颜色及距离信息将图像分为初始若干区域及待分割候选像素;基于高斯混合模型并行迭代更新各区域参数,得到最终的分割;在各分割上建立最小生成树计算聚合值求取视差;通过邻域内的有效视差修正误匹配点,获取精度较高的稠密视差图。与其他算法相比,该算法能有效降低误匹配率,尤其在深度不连续区域的匹配效果显著改善。  相似文献   

17.
张一飞  李新福  田学东 《计算机工程》2020,46(4):236-240,246
为保证SAD算法的立体匹配效率,提高匹配精度,提出一种融合边缘特征的立体匹配算法Edge-Gray.通过边缘计算得到边缘特征图,在进行匹配的过程中,根据当前点与领域点的差值确定匹配窗口大小和匹配源图,在此基础上进行视差优化得到视差图.实验结果表明,与传统的SAD算法相比,Edge-Gray算法的平均误匹配率较低,对于边缘较多的Cones图像立体匹配效果较好,其误匹配率可降低10.52%.  相似文献   

18.
黄彬  胡立坤  张宇 《计算机工程》2021,47(5):189-196
针对传统Census算法对噪声敏感且在弱纹理区域匹配精度低的不足,提出一种基于自适应权重的改进算法。在代价计算阶段,通过空间相似度加权计算得到参考像素值,设定阈值限定参考值与中心点像素的差异,使算法能够判断中心点是否发生突变并自适应选择中心参考像素值。在代价聚合阶段,引入多尺度聚合策略,将引导滤波作为代价聚合核函数,加入正则化约束保持代价聚合时尺度间的一致性。在视差计算阶段,通过胜者通吃法得到初始视差图。在视差优化阶段,对初始视差图做误匹配点检测及左右一致性检测,并对遮挡区域进行像素填充得到最终的视差图。基于Middlebury标准图的实验结果表明,该算法平均误匹配率为5.81%,对比于传统Census算法抗干扰性提升显著,并能在平均误匹配率表现上达到主流经典算法的性能水准。  相似文献   

19.
一种改进的区域双目立体匹配方法   总被引:2,自引:0,他引:2  
双目立体匹配是机器视觉中的热点、难点问题。分析了区域立体匹配方法的优缺点,提出了改进的区域立体匹配方法。首先,采集双目视觉图像对对图像对进行校正、去噪等处理,利用颜色特征进行图像分割,再用一种快速有效的块立体匹配算法对图像进行立体匹配。然后,在匹配过程中使用绝对误差累积(SAD)的小窗口来寻找左右两幅图像之间的匹配点。最后,通过滤波得到最终的视差图。实验表明:该方法能够有效地解决重复区域、低纹理区域、纹理相似区域、遮挡区域等带来的误匹配问题,能得到准确清晰的稠密视差图。  相似文献   

20.
陈瑞芳  王成儒 《计算机工程》2012,38(11):183-185
给出一种改进的立体匹配算法。根据视差场的极限约束,采用图像线分割的匹配方法得到初始视差,由基于初始视差的交叉检测技术和可信度约束提取高可靠度的GCP点。针对视差图中的不可靠点,加入Bilateral Filter的自适应加权中值滤波,在由均值偏移图像分割算法得到的分割区域内,对像素的视差值进行投票,有效遏制局外点,得到更合理的视差图。在Middlebury test set上进行的测试结果表明,该算法具有较好的视差估计精度。  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司    京ICP备09084417号-23

京公网安备 11010802026262号