首页 | 官方网站   微博 | 高级检索  
相似文献
 共查询到20条相似文献,搜索用时 500 毫秒
1.
针对现有立体匹配算法对噪声敏感、匹配率低的问题,提出了一种基于Spearman相关性系数与多尺度框架融合的立体匹配算法。在代价计算阶段,创新性地在固定窗口内通过简化Spearman相关性系数得到两种代价计算模型。在代价聚合阶段,利用多尺度框架在图像金字塔上进行代价聚合,从而使得匹配算法在低纹理区域得到较高的匹配率。实验结果表明,提出的立体匹配算法有效降低了误匹配率:对Middletury2.0测试集中31对标准图像对的平均误匹配率仅为7.98%,Middletury3.0中的15对标准图像对的平均误匹配率为13.45%。实验结果表明,提出的融合Spearman相关性系数与多尺度框架的立体匹配能有效降低图像的误匹配率,并对噪声等具有较好的稳健性。  相似文献   

2.
针对传统立体匹配算法受光照和纹理结构等变化的影响,匹配成功率低或容易出现匹配失败的问题,提出一种融合SAD和Census变换的双目立体图像匹配算法。该算法基于图像预处理,首先集成SAD和Census算法的优势,以取代单一匹配代价计算方法;然后,使用一种十字交叉代价聚合策略来提升匹配效果;最后,为验证本文算法的有效性,选择不同的实验场景,对不同分辨率的图像进行立体匹配的综合对比实验,实验结果表明本文算法在匹配效率和匹配精度等方面具有显著优势,适用于复杂场景中高质量视差图的生成。  相似文献   

3.
为解决局部立体匹配算法存在深度图边界区域不连续问题,本文提出了一种基于边缘约束的自适应引导滤波立体匹配算法。将梯度值和颜色信息结合进行匹配代价计算;然后,基于图像边缘局部特征,对图像的像素点基于颜色阈值和边界条件构建自适应十字交叉区域,并对自适应窗口进行引导滤波代价聚合;最后,采用胜者为王策略(winner takes all,WTA)进行视差计算,对视差图进行视差精细化处理。实验结果表明:本文算法生成的深度图能够更好地保留细节特征,边界纹理区域的误匹配现象明显改善,可有效降低误匹配率,本文算法在Middlebury数据集误匹配率仅为5.22%。  相似文献   

4.
传统的立体匹配算法大都基于两幅图像像素点或者局部块的对应性,在单一尺度下求取视差图,但这不能很好地建模低纹理及重复纹理区域的对应关系,致使获得的视差图精度有限。为了改善上述问题,考虑到人眼视觉系统在不同尺度上处理所接收到的视觉信号,提出了跨尺度的重启动与随机游走算法。首先计算场景图像的匹配代价,其次利用超像素分割进行快速初始聚合,然后使用重启动与随机游走算法对其进行全局上的优化,最后采用跨尺度模型实现匹配代价的有效融合更新,继而获取场景图像的视差图。在Middlebury数据集上的实验仿真结果表明,相较于传统的跨尺度立体匹配算法,该算法能够有效地将场景图像在所有区域及非遮挡区域的加权平均误匹配率分别降低1个百分点和3个百分点,获得高精度的视差图。  相似文献   

5.
在传统的局部立体匹配算法中,代价聚合要对相关邻域内的点进行加权聚合,这种方式计算量大,非常耗时。文章提出一种基于最小生成树的立体匹配算法,该方法将图论中的最小生成树引入代价聚合和视差细化中,使得图像中所有点都对兴趣点进行聚合支持,弥补了局部算法在弱纹理区误匹配率高的局限性,提高了匹配的准确性,并且最小生成树能够对图像所有点进行层次性的划分,极大地简化了计算量。实验证明,该算法能够快速得到平滑且精度高的视差图。  相似文献   

6.
立体匹配是视觉导航、三维重建的信息基础.为了降低光照失真对匹配代价计算的影响,消除引导滤波平滑图像时产生的光晕,提出了一种多信息代价计算融合显著梯度的立体匹配算法.设计了融合颜色特征、梯度信息及梯度角度的匹配代价计算算法,对左右视图进行匹配代价计算;然后进行显著性处理,计算显著图的梯度信息,得到图像的局部平均梯度;遍历全图得到全局局部平均梯度作为边缘判断条件,自适应调整引导滤波的正则化参数.实验结果表明,算法有效改善了边缘轮廓及平滑区域的视差,降低了误匹配率.  相似文献   

7.
针对立体匹配在稀疏纹理、重复纹理、深度不连续和遮挡区域存在的问题,提出了一种高效的立体匹配算法.该算法主要由像素匹配代价计算和视差图全局优化2个步骤组成.为了大幅减少当前算法在场景深度不连续处所产生的过渡平滑现象和在稀疏纹理处产生的错误匹配,采用基于图像采样噪声无关的自适应权重加窗匹配算法.为了求解遮挡区域和不连续性区域的像素视差,使用遮挡和平滑惩罚代价来约束整幅视差图,并采用基于图像分割的能量最小化方法求取最优解.实验结果表明,相比于局部和全局算法,该算法可以更快且准确地计算稀疏纹理、不连续性和遮挡区域的像素视差.  相似文献   

8.
针对传统局部立体匹配算法在深度不连续区域和低纹理区域匹配精度不高的问题,提出了一种基于SIFT描述子的自适应聚合权重立体匹配算法.算法首先采用梯度域的幅值和相位获取初始匹配代价;然后利用相似性区域判决准则获得各个中心点的自适应矩形聚合窗口,并利用各点SIFT描述子的L1范数进行自适应聚合权重计算.仿真实验结果表明,该算法能够有效地提高低纹理区域和深度不连续区域的立体匹配精度,获得较高精度的视差图.  相似文献   

9.
为提高双目立体匹配算法在弱纹理区域的匹配精度和多尺度空间的匹配一致性,提出基于窗口内像素均值信息判断和自适应权重的改进Census变换算法进行代价计算,提高像素在视差不连续区域的匹配精度.代价聚合阶段引入高斯金字塔结构,将引导图滤波算法融合到多尺度模型中,并添加正则化约束来提高对弱纹理区域的匹配一致性;视差选择阶段中,采用一系列优化方法如误匹配点检测、区域投票策略和亚像素增强等来提高匹配的正确率.实验结果表明,该算法在Middlebury测试集上的平均误码率为5.91%,在弱纹理区域和视差不连续区域能得到较好的视差图,且具有较好的鲁棒性.  相似文献   

10.
提出了一种针对道路交通图像等大尺寸场景图像的测距算法,主要解决道路图像中存在的光照变化频繁,场景空间尺寸较大导致处理时间较长的问题,以在保证精确度的同时获得比普通双目立体匹配算法更高的速度.创新的使用了一种降采样Census算法来求出初始匹配代价,然后通过聚类算法将局部匹配代价聚合进行视差图优化,获得尺度较小的视差图,以便于后续进行障碍物检测目标识别等相关操作.实验表明,在道路交通场景,该算法能够在保证准确率的基础上极大的提高算法效率.  相似文献   

11.
双目立体视觉匹配通过两幅具有一定视差的图像获得精确、稠密的视差图。为了解决动态规划立体匹配算法橫条纹瑕疵以及精度低的问题,提出了一种基于多邻域非线性扩散的立体匹配算法。该算法采用AD测度函数构建视差空间,根据行列像素之间的约束关系,基于非线性扩散的代价聚合方法,通过图像边缘的动态优化寻求全局能量函数最优值得到稠密视差图。在Middlebury测试集上的实验结果表明,该算法的平均误匹配率为5.60%,相比IIDP动态规划全局匹配算法,精度提高了39.9%,有效地解决了横向条纹问题,改善了边缘模糊情况,且提升了算法的稳定性。与其他全局匹配算法相比,本文算法误匹配率降低了38.2%,在图像参数的11个指标中有9项指标排名第1。  相似文献   

12.
针对立体匹配中在低纹理及遮挡区域容易导致误匹配的问题,提出一种改进的基于图像分割的立体匹配算法.首先,采用自适应多边形窗口来对左右图像进行初始匹配,同时通过左右一致性检测得到可靠匹配点;然后根据颜色信息将图像分割为不同区域,运用得到的可靠点计算不同区域的视差模板;将得到的模板结果作为视差估计和能量函数的参考项构造能量函数,使用树形动态规划最小化能量函数计算最优视差.将该算法应用于标准库进行实验,结果表明该算法能够有效地匹配图像,具有较高的匹配精度.  相似文献   

13.
为了改善立体匹配算法在低纹理和深度跳变区域的匹配性能,提出了一种改进的置信度传播立体匹配算法.首先利用均值漂移算法对图像进行彩色分割,然后通过自适应权重算法计算匹配代价并获取初始视差图,再利用匹配代价可信度检测和左右一致性校验将初始匹配结果按照可靠度分类,最后在全局优化的过程中分别通过可靠度分类和图像分割结果来指导置信...  相似文献   

14.
一种基于Census变换的可变权值立体匹配算法   总被引:1,自引:0,他引:1  
针对传统基于Census变换立体匹配算法精度不高的问题,提出了一种基于改进Census变换的可变权值立体匹配算法. 在分析传统Census变换缺陷的基础上,提出利用最小均匀度子邻域均值代替中心像素灰度值进行Census变换,可有效增强算法的抗干扰能力. 通过加权区域海明距离均值和标准差作为相似性测度进行立体匹配,减少误匹配,提高匹配精度并通过左右一致性检测和遮挡填充,生成最终视差图. 实验结果表明,该算法鲁棒性得到增强,在深度不连续区域也可以得到准确的视差.   相似文献   

15.
针对图像特征点匹配中计算效率较低且误配率较高的问题,提出了一种在两视图匹配中引入最小生成树的新算法.该方法主要运用最小生成树构建匹配代价最小的图像对,首先通过对输入的多幅图像进行特征点提取,对生成的特征点采用基于欧式距离的两视图匹配,进一步构建最小生成树以生成最短特征点匹配轨迹,从而完成匹配.测试结果表明:最小生成树的引入使得大多数特征点匹配过程只在相关图像中运行,且能找出匹配代价最低的匹配路径,在保证匹配准确性的情况下,计算时间开销约为传统算法的20%,保证了图像匹配的实时性.  相似文献   

16.
基于特征的匹配是立体匹配中最常用的方法,但是匹配结果受特征检测精度的影响较大.针对这一问题,提出一种基于相位一致性角点检测的匹配算法,该算法采用相位一致性模型对图像中的角点特征进行检测,检测结果不受亮度、对比度等因素影响,因此在不同光照环境下的多幅图像可以使用相同的固定阈值,避免了特征检测中阈值选取的困难.在此基础上,结合场景的深度信息采用图像的灰度局部区域相关系数进行特征匹配.实验结果表明,该算法获得的匹配结果具有很高的正确匹配率.  相似文献   

17.
基于卷积神经网络的双目立体匹配算法取得了重要进展,但现有方法在弱纹理区域、细节和边缘等位置仍然存在匹配不准确的问题.立足于双目立体匹配任务中常用的匹配代价体(cost volume),提出自适应构造与聚合多尺度代价体的双目立体匹配网络.首先将多个尺度的输入特征融合成为重组特征;然后设计可学习的特征增强模块,为各个尺度的匹配代价体恢复所需的细节信息;最后基于全局注意力对各尺度匹配代价体进行尺度内聚合,并提出自适应多尺度加权方法进行尺度间聚合,筛选出适用于回归各尺度视差的匹配特征.在SceneFlow和KITTI2015数据集上的实验表明:所提方法在较小网络规模的情况下取得了有竞争力的性能表现,验证了所提方法的有效性.  相似文献   

18.
立体匹配通过计算和标识匹配图像的视差图来获得图像的深度信息,一般计算量大,无法满足实时性要求。本文聚焦立体匹配的匹配代价聚集和视差计算环节,在动态规划方法的基础上,提出了一种实时的立体匹配算法。根据连续性约束,提出了基于自适应形状窗口的快速匹配代价聚集算法,加速了臂长和匹配代价聚集的计算效率;利用边缘检测技术获得图像边界信息,修改动态规划的转移方程,使得边界像素可以在整个视差空间中选择视差值,降低边界处匹配视差的误匹配率。实验结果表明:通过结合上述两个步骤的改进算法,可以获得满足实时性要求、高质量的匹配视差图,整体的匹配准确率较高。  相似文献   

19.
如何通过立体匹配提高图像景深精度一直是机器视觉研究领域的一个难点, 针对自适应窗口算法易受光照不均和窗口形状难以有效描述待匹配图像边界等问题, 提出一种异形自适应窗口局部立体匹配算法. 由于传统 Census 变换易受中心像素波动影响, 因此提出一种像素信息三维化处理技术, 并通过窗口内非中心像素间差异和窗口间中心像素的差异信息计算匹配代价; 为更好地贴合图像轮廓, 提出了由双螺旋路径法确定的异形窗口进行代价聚合, 对像素区域同时沿两条搜索路径自适应确定形状大小, 形成比传统技术更加高效多变的匹配窗口. 实验结果表明, 相比 Middlebury 平台上其他算法, 所提算法具有更为准确的图像边界描述能力, 可有效提高立体匹配精度, 同时对于光照不均的情况具有更强的鲁棒性.  相似文献   

20.
为解决传统极限距离立体匹配算法在深度不连续区域,以及光照差异增大时出现匹配误差大幅升高等问题,提出基于自适应权重极限距离变换的立体匹配算法。在Delta-Gama对数空间下,该算法首先根据初始匹配结果计算立体图像对Gama校正系数,基于光照差异修正极线距离变换相似度函数带宽,其次基于权重相似度自适应选取极线端点,确定分割系数;最后利用置信度传播算法计算视差图。实验结果表明,本文算法能够有效提高深度变换区域的匹配准确度,同时有效降低光照差异图像的误匹配效率。相对于当前先进算法,本文算法的匹配率比当前先进算法提高至少40%。  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司    京ICP备09084417号-23

京公网安备 11010802026262号