首页 | 官方网站   微博 | 高级检索  
相似文献
 共查询到20条相似文献,搜索用时 218 毫秒
1.
针对立体匹配在稀疏纹理、重复纹理、深度不连续和遮挡区域存在的问题,提出了一种高效的立体匹配算法.该算法主要由像素匹配代价计算和视差图全局优化2个步骤组成.为了大幅减少当前算法在场景深度不连续处所产生的过渡平滑现象和在稀疏纹理处产生的错误匹配,采用基于图像采样噪声无关的自适应权重加窗匹配算法.为了求解遮挡区域和不连续性区域的像素视差,使用遮挡和平滑惩罚代价来约束整幅视差图,并采用基于图像分割的能量最小化方法求取最优解.实验结果表明,相比于局部和全局算法,该算法可以更快且准确地计算稀疏纹理、不连续性和遮挡区域的像素视差.  相似文献   

2.
提出了一种针对道路交通图像等大尺寸场景图像的测距算法,主要解决道路图像中存在的光照变化频繁,场景空间尺寸较大导致处理时间较长的问题,以在保证精确度的同时获得比普通双目立体匹配算法更高的速度.创新的使用了一种降采样Census算法来求出初始匹配代价,然后通过聚类算法将局部匹配代价聚合进行视差图优化,获得尺度较小的视差图,以便于后续进行障碍物检测目标识别等相关操作.实验表明,在道路交通场景,该算法能够在保证准确率的基础上极大的提高算法效率.  相似文献   

3.
为提高双目立体匹配算法在弱纹理区域的匹配精度和多尺度空间的匹配一致性,提出基于窗口内像素均值信息判断和自适应权重的改进Census变换算法进行代价计算,提高像素在视差不连续区域的匹配精度.代价聚合阶段引入高斯金字塔结构,将引导图滤波算法融合到多尺度模型中,并添加正则化约束来提高对弱纹理区域的匹配一致性;视差选择阶段中,采用一系列优化方法如误匹配点检测、区域投票策略和亚像素增强等来提高匹配的正确率.实验结果表明,该算法在Middlebury测试集上的平均误码率为5.91%,在弱纹理区域和视差不连续区域能得到较好的视差图,且具有较好的鲁棒性.  相似文献   

4.
针对传统局部立体匹配算法在深度不连续区域和低纹理区域匹配精度不高的问题,提出了一种基于SIFT描述子的自适应聚合权重立体匹配算法.算法首先采用梯度域的幅值和相位获取初始匹配代价;然后利用相似性区域判决准则获得各个中心点的自适应矩形聚合窗口,并利用各点SIFT描述子的L1范数进行自适应聚合权重计算.仿真实验结果表明,该算法能够有效地提高低纹理区域和深度不连续区域的立体匹配精度,获得较高精度的视差图.  相似文献   

5.
立体匹配通过计算和标识匹配图像的视差图来获得图像的深度信息,一般计算量大,无法满足实时性要求。本文聚焦立体匹配的匹配代价聚集和视差计算环节,在动态规划方法的基础上,提出了一种实时的立体匹配算法。根据连续性约束,提出了基于自适应形状窗口的快速匹配代价聚集算法,加速了臂长和匹配代价聚集的计算效率;利用边缘检测技术获得图像边界信息,修改动态规划的转移方程,使得边界像素可以在整个视差空间中选择视差值,降低边界处匹配视差的误匹配率。实验结果表明:通过结合上述两个步骤的改进算法,可以获得满足实时性要求、高质量的匹配视差图,整体的匹配准确率较高。  相似文献   

6.
针对传统立体匹配算法受光照和纹理结构等变化的影响,匹配成功率低或容易出现匹配失败的问题,提出一种融合SAD和Census变换的双目立体图像匹配算法。该算法基于图像预处理,首先集成SAD和Census算法的优势,以取代单一匹配代价计算方法;然后,使用一种十字交叉代价聚合策略来提升匹配效果;最后,为验证本文算法的有效性,选择不同的实验场景,对不同分辨率的图像进行立体匹配的综合对比实验,实验结果表明本文算法在匹配效率和匹配精度等方面具有显著优势,适用于复杂场景中高质量视差图的生成。  相似文献   

7.
为了改善立体匹配算法在低纹理和深度跳变区域的匹配性能,提出了一种改进的置信度传播立体匹配算法.首先利用均值漂移算法对图像进行彩色分割,然后通过自适应权重算法计算匹配代价并获取初始视差图,再利用匹配代价可信度检测和左右一致性校验将初始匹配结果按照可靠度分类,最后在全局优化的过程中分别通过可靠度分类和图像分割结果来指导置信...  相似文献   

8.
针对立体匹配中弱纹理区域和深度不连续区域的匹配精度问题,提出了一种基于多特征融合的树形结构代价聚合立体匹配算法.首先,融合图像颜色、梯度和图像的Census变换进行匹配代价计算;然后,在由原始图像生成的最小生成树上进行匹配代价聚合,并使用多方向扫描线优化,进一步提升立体匹配的精确度;最后,使用左右一致性检测标记出误匹配点,并进行视差修正.为了验证该算法的有效性,使用Middlebury测试集提供的测试图像进行测试,平均误匹配率为6.38%;分别对2种场景实际拍摄图像进行深度信息提取误差率测试,测试得到2种场景的测距误差率分别为5.76%和5.55%,证明了该算法的实用性.  相似文献   

9.
佘科  谢红 《应用科技》2011,38(5):47-51
针对传统图割立体匹配算法耗时太长以及动态规划立体匹配算法匹配精度不高,且视差图带有条纹瑕疵的问题,提出了一种基于动态规划和图像分割的立体匹配算法.采用自适应多阈值图像分割算法对参考图像进行高效可靠的区域分割,提取边界,使用多种子点动态规划算法精细求取边界上点的视差,并以区域为单元用图割立体匹配算法求取区域内各点的视差,拟合得到图像对的视差图.通过对比,实验结果表明:此算法较传统图割法匹配速度有明显提高,且可以得到匹配精度较高的稠密视差.  相似文献   

10.
为解决局部立体匹配算法存在深度图边界区域不连续问题,本文提出了一种基于边缘约束的自适应引导滤波立体匹配算法。将梯度值和颜色信息结合进行匹配代价计算;然后,基于图像边缘局部特征,对图像的像素点基于颜色阈值和边界条件构建自适应十字交叉区域,并对自适应窗口进行引导滤波代价聚合;最后,采用胜者为王策略(winner takes all,WTA)进行视差计算,对视差图进行视差精细化处理。实验结果表明:本文算法生成的深度图能够更好地保留细节特征,边界纹理区域的误匹配现象明显改善,可有效降低误匹配率,本文算法在Middlebury数据集误匹配率仅为5.22%。  相似文献   

11.
双目立体视觉匹配通过两幅具有一定视差的图像获得精确、稠密的视差图。为了解决动态规划立体匹配算法橫条纹瑕疵以及精度低的问题,提出了一种基于多邻域非线性扩散的立体匹配算法。该算法采用AD测度函数构建视差空间,根据行列像素之间的约束关系,基于非线性扩散的代价聚合方法,通过图像边缘的动态优化寻求全局能量函数最优值得到稠密视差图。在Middlebury测试集上的实验结果表明,该算法的平均误匹配率为5.60%,相比IIDP动态规划全局匹配算法,精度提高了39.9%,有效地解决了横向条纹问题,改善了边缘模糊情况,且提升了算法的稳定性。与其他全局匹配算法相比,本文算法误匹配率降低了38.2%,在图像参数的11个指标中有9项指标排名第1。  相似文献   

12.
针对现有立体匹配算法对噪声敏感、匹配率低的问题,提出了一种基于Spearman相关性系数与多尺度框架融合的立体匹配算法。在代价计算阶段,创新性地在固定窗口内通过简化Spearman相关性系数得到两种代价计算模型。在代价聚合阶段,利用多尺度框架在图像金字塔上进行代价聚合,从而使得匹配算法在低纹理区域得到较高的匹配率。实验结果表明,提出的立体匹配算法有效降低了误匹配率:对Middletury2.0测试集中31对标准图像对的平均误匹配率仅为7.98%,Middletury3.0中的15对标准图像对的平均误匹配率为13.45%。实验结果表明,提出的融合Spearman相关性系数与多尺度框架的立体匹配能有效降低图像的误匹配率,并对噪声等具有较好的稳健性。  相似文献   

13.
在传统的局部立体匹配算法中,代价聚合要对相关邻域内的点进行加权聚合,这种方式计算量大,非常耗时。文章提出一种基于最小生成树的立体匹配算法,该方法将图论中的最小生成树引入代价聚合和视差细化中,使得图像中所有点都对兴趣点进行聚合支持,弥补了局部算法在弱纹理区误匹配率高的局限性,提高了匹配的准确性,并且最小生成树能够对图像所有点进行层次性的划分,极大地简化了计算量。实验证明,该算法能够快速得到平滑且精度高的视差图。  相似文献   

14.
基于卷积神经网络的双目立体匹配算法取得了重要进展,但现有方法在弱纹理区域、细节和边缘等位置仍然存在匹配不准确的问题.立足于双目立体匹配任务中常用的匹配代价体(cost volume),提出自适应构造与聚合多尺度代价体的双目立体匹配网络.首先将多个尺度的输入特征融合成为重组特征;然后设计可学习的特征增强模块,为各个尺度的匹配代价体恢复所需的细节信息;最后基于全局注意力对各尺度匹配代价体进行尺度内聚合,并提出自适应多尺度加权方法进行尺度间聚合,筛选出适用于回归各尺度视差的匹配特征.在SceneFlow和KITTI2015数据集上的实验表明:所提方法在较小网络规模的情况下取得了有竞争力的性能表现,验证了所提方法的有效性.  相似文献   

15.
立体匹配是视觉导航、三维重建的信息基础.为了降低光照失真对匹配代价计算的影响,消除引导滤波平滑图像时产生的光晕,提出了一种多信息代价计算融合显著梯度的立体匹配算法.设计了融合颜色特征、梯度信息及梯度角度的匹配代价计算算法,对左右视图进行匹配代价计算;然后进行显著性处理,计算显著图的梯度信息,得到图像的局部平均梯度;遍历全图得到全局局部平均梯度作为边缘判断条件,自适应调整引导滤波的正则化参数.实验结果表明,算法有效改善了边缘轮廓及平滑区域的视差,降低了误匹配率.  相似文献   

16.
为了解决双目视觉中的立体匹配问题、减少立体匹配网络的参数数量、降低算法的计算复杂度、提高算法的实用性。在PSMNet立体匹配网络的基础上进行改进,提出了一种具备浅层结构与宽阔视野的立体匹配算法——SWNet。浅层结构表示网络层数更少、参数更少、处理速度更快;宽阔视野则表示网络的感受野更宽广,能够获取并保留更多的空间信息。SWNet由特征提取、3D卷积和视差回归3个部分构成。在特征提取部分,引入了深色空间金字塔结构(Atrous Spatial Pyramid Pool,ASPP),用于提取多尺度的空间特征信息,设计了特征融合模块,将不同尺度的特征信息有效地融合起来以构建匹配代价卷;3D卷积神经网络利用堆叠的编码解码结构进一步对匹配代价卷进行规则化处理,获得不同视差条件下特征点之间的对应关系;最后,采用回归的方式得到视差图。SWNet在SceneFlow和KITTI 2015两个公开的数据集上均取得了优异的表现,与参考算法PSMNet相比,参数数量下降了48.9%,且误匹配率仅有2.24%。  相似文献   

17.
提出一种以图像片段为单位进行立体匹配的方法,与传统的以像素为单位的立体方法不同的是,本文使用图像的边缘信息将参考图像分成小的片段,同时在水平和垂直方向上以小的片段为单位进行立体匹配,然后进行视差图像的融合,提高了匹配的准确性.在片段内,本文将匹配代价分为高代价与低代价,以不同的计算方式统计两种代价值对整个片段的代价贡献,这种计算方式可以准确地匹配物体被部分遮挡时的情况;接下来对原参考图像进行低位数放大,对片段内的视差值根据低位数放大后的参考图像再次查找精确视差;最后,依据原始的参考图像,使用同色域均值滤波对获得的视差图进行填补与平滑操作.经实验证明,本方法具有算法运算复杂度低,速度快,匹配准确和物体的边缘视差清晰的特点,在Middlebury图像库的测试中获得了较好的实验结果.  相似文献   

18.
提出一种分层正交动态规划立体匹配算法.首先利用正交动态规划算法在低分辨率图像的DSI(disparity-space image)视差空间图中进行初匹配,然后在Delta DSI(delta disparity-spaceimage)视差变化空间图中进行精匹配,从而获得高分辨率图像的视差图.实验结果表明,该算法不仅可以改善传统动态规划算法产生的带状条纹瑕疵,而且匹配率高、速度快、应用范围广.  相似文献   

19.
视差图误差检测与校正的通用快速算法   总被引:2,自引:0,他引:2  
为了获取精确的立体匹配结果 ,提出了一种通用的视差图误差检测与校正算法。算法首先定义一个新的全局顺序匹配约束 ;然后将其用于视差图后处理过程 (而不是视差计算过程 )中 ,以检测出视差图中的匹配交叉区域 ;最后提出一种零交叉校正方法 ,校正其中的误匹配点。通过对一组真实立体图像序列及其视差图的实验 ,进一步证明了该算法的有效性。该算法可以作为视差图后处理过程附加在各种立体匹配算法之后  相似文献   

20.
针对立体匹配中在低纹理及遮挡区域容易导致误匹配的问题,提出一种改进的基于图像分割的立体匹配算法.首先,采用自适应多边形窗口来对左右图像进行初始匹配,同时通过左右一致性检测得到可靠匹配点;然后根据颜色信息将图像分割为不同区域,运用得到的可靠点计算不同区域的视差模板;将得到的模板结果作为视差估计和能量函数的参考项构造能量函数,使用树形动态规划最小化能量函数计算最优视差.将该算法应用于标准库进行实验,结果表明该算法能够有效地匹配图像,具有较高的匹配精度.  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司    京ICP备09084417号-23

京公网安备 11010802026262号