首页 | 官方网站   微博 | 高级检索  
相似文献
 共查询到20条相似文献,搜索用时 15 毫秒
1.
为解决现有立体匹配算法在图像弱纹理等区域鲁棒性差以及模型参数较大的问题,对PSMNet立体匹配方法进行改善,通过使用空洞空间卷积池化金字塔结构(atrous spatial pooling pyramid,ASPP)提取图像在不同尺度下的空间特征信息。随后引入通道注意力机制,给予不同尺度的特征信息相应的权重。融合以上信息构建匹配代价卷,利用沙漏形状的编解码网络对其进行规范化操作,从而确定特征点在各种视差情况下的相互对应关系,最后采用线性回归的方法得到相应的视差图。与PSMNet相比,该研究在SceneFlow和KITTI2015数据集里的误差率各自减少了14.6%和11.1%,且计算复杂度下降了55%。相比较于传统算法,可以改善视差图精度,提升三维重建点云数据质量。  相似文献   

2.
陆明军  叶兵 《半导体光电》2021,42(6):931-935
立体匹配是双目视觉领域的重要研究方向.为在保证图片纹理区域匹配精度的同时降低弱纹理区域的误匹配率,提出一种基于引导滤波及视差图融合的立体匹配方法.首先,根据图像颜色相似性将图片划分为纹理较丰富区域和弱纹理区域.接着,分别采用不同参数的引导滤波进行代价聚合及视差计算,得到两张视差图.然后依据纹理区域划分的结果对获得的两张视差图进行融合.最后,通过左右一致性检测、加权中值滤波等视差优化步骤得到最终视差图.对Middlebury测试平台上标准图像对的实验结果表明,该方法在6组弱纹理图像上的平均误匹配率为9.67%,较传统引导滤波立体匹配算法具有更高的匹配精度.  相似文献   

3.
基于特征级联卷积网络的双目立体匹配   总被引:1,自引:0,他引:1  
针对图像序列病态区域匹配歧义性以及稠密视差图连通性的问题,本文提出一种基于特征级联卷积神经网络的双目立体匹配计算方法.构造特征重用的全卷积密集块,利用"跳连接"机制将浅层提取的特征图级联到后续子层,对深层卷积丢失的局部特征信息进行补偿.引入指示函数划分一定大小的训练集,将其批量输入特征级联卷积网络模型进行前向传播,同时通过小批量梯度下降(Mini-Batch Gradient Descent,MBGD)策略更新初始权重和偏置参数.根据负连接神经元对网络模型的输出进行初始匹配代价计算,并利用十字交叉域代价聚合(Cross Based Cost Aggregation,CBCA)和半全局立体匹配(Semi-Global Matching,SGM)等算法对代价函数进行优化,求得精准稠密的视差图.分别采用Middlebury数据库提供的训练和测试立体图像集对本文方法和深度学习方法MC-CNN、CBMV、MC-CNN-WS等具有代表性方法进行对比测试.实验结果表明,本文方法具有较高的视差计算精度和鲁棒性,尤其对复杂场景、光照变化以及弱纹理等困难场景图像序列能有效提高匹配率和保持图像细节.  相似文献   

4.
高会敏  徐志京 《光电子.激光》2021,32(11):1180-1187
针对传统卷积神经网络(convolutional neural network, CNN)在立体匹配过程中存在信息 损失和耗时等问题,提出了基于可变形和深度可 分离卷积的立体匹配算法。在特征提取过程中,利用可变形卷积和可变形卷积核构建残差网 络,完成自适 应学习,扩大有效感受野,从而适应物体的不同形变,获取更详细的特征,减少信息损失, 提高了匹配精 度。在特征聚合阶段,采用深度可分离卷积构建深度可分离聚合网络,在空间维度和通道维 度分别进行卷 积运算,以降低参数量和计算复杂度,保证了匹配实时性。在相关的数据集上进行测试,实 验结果表明, 算法的网络运行时间缩短为1.60 s,在KITTI 2015和 KITTI 2012数据集上三像素错误率分别为2.84%和 2.79%,在SceneFlow数据集上端点误差为1.59 %。相比其他基准网络,减少了网络模型的运算量同时算法精度有很大提升。  相似文献   

5.
针对现有局部立体匹配算法在计算匹配代价时, 不能很好区分强弱纹理区域,及在视差计算过程 中,不能很好的解决视差歧义问题,提出一种融合梯度特性与置信度的立体匹配算法。首先 计算梯度特 征,并根据梯度特征信息选择匹配代价计算的匹配窗口,针对强弱不同纹理区域选择不同尺 寸的匹配窗 口,有效的提高了立体匹配精度,降低了误匹配率;然后在视差计算中引入置信度约束条件 ,解决了视差 计算中视差歧义的问题,提高了立体匹配算法的稳定性与精度;最后使用水平与垂直方向交 叉区域检测进 行奇异值的修正。实验结果表明,该算法在Middlebury数据集中31对 立体图像对的平均误匹配率为7.96%,有效的提高了立体匹配精度。  相似文献   

6.
引入辅助任务信息有助于立体匹配模型理解相关知识,但也会增加模型训练的复杂度。为解决模型训练对额外标签数据的依赖问题,提出了一种利用双目图像的自相关性进行多任务学习的立体匹配算法。该算法在多层级渐进细化过程中引入了边缘和特征一致性信息,并采用循环迭代的方式更新视差图。根据双目图像中视差的局部平滑性和左右特征一致性构建了损失函数,在不依赖额外标签数据的情况下就可以引导模型学习边缘和特征一致性信息。提出了一种尺度注意的空间金字塔池化,使模型能够根据局部图像特征来确定不同区域中不同尺度特征的重要性。实验结果表明:辅助任务的引入提高了视差图精度,为视差图的可信区域提供了重要依据,在无监督学习中可用于确定单视角可见区域;在KITTI2015测试集上,所提算法的精度和运行效率均具有一定的竞争力。  相似文献   

7.
立体匹配算法在图像弱纹理区和重复纹理区存在匹配困难、误差大的问题,为此提出一种基于改进代价计算和视差候选策略的立体匹配算法。首先结合改进的Census变换和自适应加权融合的双向梯度信息来计算初始匹配代价,提高代价计算的可靠性。其中:为传统Census变换增加内圈编码,提高邻域信息利用率,同时降低噪声的影响;利用自适应权重函数融合横向和纵向梯度代价,降低物体边缘区域的误匹配率。其次,采用自适应十字交叉窗口进行代价聚合,并通过建立候选视差集和引入邻域视差信息的方法来获取初始视差。最后通过两轮插值策略优化视差。实验结果表明,所提算法能够提高弱纹理区和重复纹理区的匹配效果,在Middlebury中4幅标准立体图像对的平均误匹配率为5.33%。  相似文献   

8.
针对现有立体匹配算法在弱纹理区域及深度不连续区域匹配精度低的问题,提出一种基于自适应区域划分的立体匹配算法。首先,利用十字交叉域算法获取像素点臂长,计算像素变化率完成区域划分。然后,通过绝对差算法,改进Census变换和自适应加权梯度算子计算初始代价卷,利用十字交叉域进行代价聚合,对聚合后图像通过改进引导图滤波优化,使用赢者通吃策略筛选最优视差。最后,利用左右一致性检测、迭代区域投票、视差填充优化和中值滤波得到最终视差图。在Middlebury测试平台上测试结果表明,所提算法平均误差率为4.21%,能够有效提升在弱纹理区域及深度不连续区域的匹配精度。  相似文献   

9.
马滨滨  肖玲 《电子测试》2022,(22):11-15
在实际的三维工件测量环境中,外界光照、噪声均会对立体匹配结果产生巨大影响,从而影响最终三维重构的结果。本文提出了一种基于自适应权重的SAD-Census立体匹配算法,首先对Census立体匹配算法进行了改进,然后将代价聚合中构建的十字代价聚合区域最小臂长与空间阈值和颜色阈值的比值作为权重,融合SAD立体匹配算法和改进后的Census立体匹配算法计算视差图。最后通过对Middlebury立体匹配测试平台提供的标准图像对进行测试。测试结果表明,改进后的Census立体匹配算法具有更好的鲁棒性、在弱纹理区域匹配精度更高,基于自适应权重的SAD-Census可以得到准确的视差图。  相似文献   

10.
针对现有场景流计算方法在复杂场景、大位移和运动遮挡等情况下易产生运动边缘模糊的问题,提出一种基于语义分割的双目场景流估计方法.首先,根据图像中的语义信息类别,通过深度学习的卷积神经网络模型将图像划分为带有语义标签的区域;针对不同语义类别的图像区域分别进行运动建模,利用语义知识计算光流信息并通过双目立体匹配的半全局匹配方法计算图像视差信息.然后,对输入图像进行超像素分割,通过最小二乘法耦合光流和视差信息,分别求解每个超像素块的运动参数.最后,在优化能量函数中添加语义分割边界的约束信息,通过更新像素到超像素块的映射关系和超像素块到移动平面的映射关系得到最终的场景流估计结果.采用KITTI 2015标准测试图像序列对本文方法和代表性的场景流计算方法进行对比分析.实验结果表明,本文方法具有较高的精度和鲁棒性,尤其对于复杂场景、运动遮挡和运动边缘模糊的图像具有较好的边缘保护作用.  相似文献   

11.
尽管传统的立体匹配模型在精度和鲁棒性方面都表现出了良好的性能,但在弱纹理和深度不连续区域的视差精度问题依然存在。针对上述问题,提出了一种基于改进匹配代价和均值分割的最小生成树立体匹配算法。首先,在匹配代价计算阶段,通过Census变换进行初始匹配代价计算,利用Sobel算子对输入图像进行边缘信息提取,将提取后的图像边缘信息与Census变换后的匹配代价值进行融合,并将其与基于图像亮度信息的代价值进行非线性融合,以提高匹配代价的精度;然后,使用最小生成树代价聚合模型进行聚合操作并利用赢者通吃策略估计图像的初始视差;最后,在视差优化阶段,采用MeanShift算法对图像进行分割,结合图像的轮廓信息对误匹配点进行修正,进一步提高在弱纹理及边缘区域的视差精度。实验结果表明,与一些传统算法相比,所提算法具有更高的视差精度,且视差图的边缘、纹理较其他算法更为平滑,具有更强的鲁棒性。  相似文献   

12.
医用光学中基于局部特征的高效稳健立体匹配算法   总被引:1,自引:0,他引:1  
医用光学中为快速消除双目立体匹配歧义,提出一种基于局部特征、稳健高效的两步立体匹配方法。用局部二进制模板/对比度(LBP/C)纹理分析描述图像纹理并构造初始匹配成本;仅在垂直、水平方向内自适应地分配权值,消除匹配特征的相似歧义性,并行双通地聚合匹配成本;由赢者通吃法得到初始视差。为消除弱纹理、重复纹理和遮挡等引起的歧义,视差求精方案包括并行双通校准视差、基于映射检测遮挡、基于极线最小二乘拟合填充遮挡。实验表明,该算法计算效率高、结构简单,易于实现并消除匹配歧义,得到精度较高且分段平滑的视差。  相似文献   

13.
传统的基于全局优化的立体匹配算法计算复杂度较高,在遮挡和视差不连续区域具有较差的匹配精度。提出了基于Tao 立体匹配框架的全局优化算法。首先采用高效的局部算法获取初始匹配视差;然后对得到的视差值进行可信度检测,利用可信像素点和视差平面假设使用具有鲁棒性的低复杂度算法修正不可信任像素视差值;最后改进置信度传播算法,使其能够自适应地停止收敛节点的消息传播,并对经修正的初始匹配进行优化,提高弱纹理区域匹配准确度。实验结果表明,文中算法有效地降低整体误匹配率,改善了视差不连续及遮挡区域的匹配精度;同时,降低了算法整体复杂度,兼顾了速度,具有一定的实用性。  相似文献   

14.
人体行为识别是计算机视觉中最具吸引力和实践性的研究领域之一,近年来,双流卷积神经网络因其可以同时捕获行为的空间信息和运动信息来进行人体行为的识别而越发的流行。然而,现有的基于双流卷积神经网络的行为识别方法的卷积方式无法全面的捕获相邻光流帧之间的运动信息和边缘的表观信息。为了解决这一问题,提出了一种利用全局特征金字塔和空间注意模块的来识别人类行为的双流网络结构。首先,在时间流提出了一个主要由卷积编码器和全局多头自注意(global multi-head self attention,GMSA)机制组成的全局特征金字塔结构.较小的卷积核在早期阶段捕获低维度特性,而较大的卷积核在卷积编码器后捕获其高维特性。而全局多头注意力则捕获全局的运动信息。其次,设计了一个空间注意模块。通过使用平均池化操作来聚合特征映射的空间信息来生成一维映射来表示空间上的平均合并特征,然后经过3*3的卷积核进行卷积来对RGB图像的边缘表观信息进行提取。最后,利用长短期记忆(long short-term memory, LSTM)来提取密集光流中的时间序列信息。在数据集UCF101、HMDB51上进行实验,实验表明,与...  相似文献   

15.
计算机双目视觉从三维世界获取信息,对三维世界进行重构和感知。传统孪生卷积神经网络计算复杂,运算时间长。为满足特征实时提取,提出一种基于孪生卷积神经网络的立体匹配方法。首先通过卷积层和池化层来进行图像的深度特征提取,然后通过点积运算和函数进行分类,最后通过kitti数据集训练测试和现有的几种立体匹配的算法进行对比。实验结果表明,所提出的方法具有较好的立体匹配效果和实时性,具有一定的实用性,与NCC等匹配代价算法相比,PBM值提升了4.53%,平均视差误差提升了2.01%。  相似文献   

16.
双目立体匹配根据视差原理将平面视觉转化到三维立体视觉,是三维重建的核心步骤之一。针对局部立体匹配算法在深度不连续、弱纹理区域匹配精度低且易受光照、噪声等因素干扰的问题,提出了一种改进的立体匹配算法。首先,在代价计算阶段将改进的Census代价与梯度代价进行融合,并采用引导滤波算法对图像进行多尺度代价聚合;然后,采用赢家通吃算法计算初始视差;最后,采用左右一致性检测、中值滤波进行视差后处理,得到最终的视差图。实验结果表明,本算法在Middlebury2.0测试平台上的平均误匹配率为5.11%,且具有很好的稳健性和实用性。  相似文献   

17.
立体匹配一直以来都是双目视觉领域中研究的重点 和难点。针对现有立体匹配算法边 缘保持性差、匹配精度低等问题,提出了一种二次加权引导滤波融合双色彩空间模型的立体 匹配算法(Secondary Weighted Guided Filtering fusion double color model,SWGF)。首 先在代价计算阶段提出了一种双色彩空间模型,从两个颜色空间进行像素颜色匹配代价计算 ,增强像素在低纹理区域的特征;然后在代价聚合阶段基于HSV颜色空间利用不同窗口中像 素纹理不同加入一个边缘保持项,从而使正则化参数进行自适应调整。在一次引导滤波之后 ,我们使用Census变换得到的汉明距离和初始视差完成一次代价更新,再次对其进行代价聚 合,随后计算视差并对视差进行左右一致性检测、空洞填充和加权中值滤波等优化,最后获 得视差图。本文算法在Middlebury测试平台上测试结果表明SWGF算法误匹配率仅为 4.61%,可以大幅提升立体匹配的精度,同时增强其边缘保持性。  相似文献   

18.
基于TOF与立体匹配相融合的高分辨率深度获取   总被引:1,自引:0,他引:1  
《信息技术》2016,(12):190-193
深度获取在机器人导航、语义感知、操控和远程监控等领域有较高的应用价值。目前已有的深度获取方法包括深度相机(如TOF)和立体匹配算法。然而,深度相机有两个主要问题:易受噪声干扰和所得深度图分辨率较低。立体匹配能够获得高分辨率的深度图,但在弱纹理或重复纹理区域无法提取准确的深度信息。而深度相机却可以在这些区域提供深度信息。基于以上TOF深度相机和立体匹配之间的互补特性,提出了一种将TOF深度相机所得深度图与立体匹配所得深度图相融合的方法获取高分辨率深度图,实现优势互补。文中提出一种新的基于TOF与立体匹配相融合的高分辨率深度图获取方法,通过在弱纹理或重复纹理区域使用TOF深度获取方法和在复杂纹理区域使用立体匹配算法进行深度获取,最终获取高分辨率深度图。实验结果表明,本文的融合算法比单独使用两种方法能产生更好的视差图,而且较其他融合算法在准确度和速度上有所提高。  相似文献   

19.
谷丽  李斌斌 《电子世界》2014,(4):225-225
本文采用基于区域的立体匹配方法从立体视频图像对中获取稠密视差图。在区域窗口大小选取上采用K-均值算法,保证每个子窗口位于同一物体内部,窗口内深度信息趋于一致;采用NCR算法运用匹配窗口周围的环境信息,提高窗口选取的智能性和匹配的准确性,改善少纹理区域的匹配效果;采用双向匹配方法有效去除因遮挡等原因产生的误匹配点,提高匹配精度,得到初始视差图;同时研究视差图优化方法,得到高质量稠密视差图,为后期新视图合成等其它应用提供基础。  相似文献   

20.
为降低复杂纹理与结构光叠加对立体匹配算法视差结果的影响,提出一种针对纹理与空间编码结构光叠加情况下的立体视觉改进算法。通过4种空间编码结构光与三种立体匹配算法(BM、SGBM、NCC)对单一平面与电木压模工件进行视差重建,发现叠加会导致双目立体视觉无法计算出真实视差。本文通过对比引入结构光前后两次拍照视差,在纹理复杂区域内用加入结构光之前视差替换加入结构光后坏点视差,实现对纹理与结构光叠加处视差优选,从而提高视差重建完整性。实验对比发现,在四种不同性能结构光下改进前后的三维重建结果可以验证算法有效性,算法提升了平面区域深度检测精度的1%,优化了工件视差重建,达到了提高三维重建完整性的目的。  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司    京ICP备09084417号-23

京公网安备 11010802026262号