首页 | 官方网站   微博 | 高级检索  
相似文献
 共查询到16条相似文献,搜索用时 203 毫秒
1.
立体匹配网络中的特征提取是提高双目视觉立体匹配精确度的关键步骤。为充分提取图像特征信息,结合密集空洞卷积、空间金字塔池化和堆叠沙漏的特点,构建一种多成本融合的立体匹配网络DCNet。引入密集空洞卷积和空间金字塔池化方法提取多尺度特征信息,同时使用轻量化注意力模块优化多尺度特征信息,构建多特征融合的匹配代价卷。在此基础上,利用3D卷积神经网络和堆叠沙漏网络聚合匹配代价信息,并通过回归的方式生成视差图。实验结果表明,该网络在KITTI2015数据集上的误匹配率为2.12%,相比PSMNet、DisNetC、PDSNet等网络,在特征提取部分能够获得更丰富的特征信息,且提升特征匹配的效果。  相似文献   

2.
苏志明  王烈  蓝峥杰 《计算机工程》2021,47(12):299-307,315
人脸表情细微的类间差异和显著的类内变化增加了人脸表情识别难度。构建一个基于多尺度双线性池化神经网络的识别模型。设计3种不同尺度网络提取人脸表情全局特征,并引入分层双线性池化层,集成多个同一网络及不同网络的多尺度跨层双线性特征以捕获不同层级间的部分特征关系,从而增强模型对面部表情细微特征的表征及判别能力。同时,使用逐层反卷积融合多层特征信息,解决神经网络通过多层卷积层、池化层提取特征时丢失部分关键特征的问题。实验结果表明,该模型在FER2013和CK+公开数据集上的识别率分别为73.725%、98.28%,优于SLPM、CL、JNS等人脸表情识别模型。  相似文献   

3.
摘 要:针对传统方法在单目视觉图像深度估计时存在鲁棒性差、精度低等问题,提出一 种基于卷积神经网络(CNN)的单张图像深度估计方法。首先,提出层级融合编码器-解码器网络, 该网络是对端到端的编码器-解码器网络结构的一种改进。编码器端引入层级融合模块,并通过 对多层级特征进行融合,提升网络对多尺度信息的利用率。其次,提出多感受野残差模块,其 作为解码器的主要组成部分,负责从高级语义信息中估计深度信息。同时,多感受野残差模块 可灵活地调整网络感受野大小,提高网络对多尺度特征的提取能力。在 NYUD v2 数据集上完 成网络模型有效性验证。实验结果表明,与多尺度卷积神经网络相比,该方法在精度 δ<1.25 上 提高约 4.4%,在平均相对误差指标上降低约 8.2%。证明其在单张图像深度估计的可行性。  相似文献   

4.
为了改善机器人、无人驾驶领域采用深度神经网络实现双目视觉立体匹配存在参数量大、GPU资源成本高的问题,提出一种多尺度聚合的立体匹配方法。首先设计一个结合多尺度的特征提取网络,利用空洞卷积在不改变分辨率下获得更为丰富的特征,引入注意力机制,再将不同分辨率下特征交叉融合以完善特征信息;其次,改变代价卷获取方式,在低尺度下聚合得到代价卷,不断结合高尺度相似信息以迭代更新,将多个代价卷进行交叉融合以得到最终代价卷;最后,结合注意力机制的精细化模块修正初始视差图中的异常值与不连续区域,得到最终视差图。实验结果表明,该算法能够在较低参数量,以及低成本GPU资源下运行,且获得较好的匹配精度。  相似文献   

5.
针对传统障碍物检测中的立体匹配算法存在特征提取不充分,在复杂场景和光照变化明显等区域存在误匹配率较高,算法所获视差图精度较低等问题,提出了一种基于多尺度卷积神经网络的立体匹配方法。首先,在匹配代价计算阶段,建立了一种基于多尺度卷积神经网络模型,采用多尺度卷积神经网络捕获图像的多尺度特征。为增强模型的抗干扰和快速收敛能力,在原有损失函数中提出改进,使新的损失函数在训练时可以由一正一负两个样本同时进行训练,缩短了模型训练时间。其次,在代价聚合阶段,构造一个全局能量函数,将二维图像上的最优问题分解为四个方向上的一维问题,利用动态规划的思想,得到最优视差。最后,通过左右一致性检测对所得视差进行进一步精化,得到最终视差图。在Middlebury数据集提供的标准立体匹配图像测试对上进行了对比实验,经过实验验证算法的平均误匹配率为4.94%,小于对比实验结果,并提高了在光照变化明显以及复杂区域的匹配精度,得到了高精度视差图。  相似文献   

6.
双目立体匹配被广泛应用于无人驾驶、机器人导航、增强现实等三维重建领域。在基于深度学习的立体匹配网络中采用多尺度2D卷积进行代价聚合,存在对目标边缘处的视差预测鲁棒性较差以及特征提取性能较低的问题。提出将可变形卷积与双边网格相结合的立体匹配网络。通过改进的特征金字塔网络进行特征提取,并将注意力特征增强、注意力机制、Meta-ACON激活函数引入到改进的特征金字塔网络中,以充分提取图像特征并减少语义信息丢失,从而提升特征提取性能。利用互相关层进行匹配计算,获得多尺度3D代价卷,采用2D可变形卷积代价聚合结构对多尺度3D代价卷进行聚合,以解决边缘膨胀问题,使用双边网格对聚合后的低分辨率代价卷进行上采样,经过视差回归得到视差图。实验结果表明,该网络在Scene Flow数据集中的端点误差为0.75,相比AANet降低13.8%,在KITTI2012数据集中3px的非遮挡区域误差率为1.81%,能准确预测目标边缘及小区域处的视差。  相似文献   

7.
目的 针对基于区域的语义分割方法在进行语义分割时容易缺失细节信息,造成图像语义分割结果粗糙、准确度低的问题,提出结合上下文特征与卷积神经网络(CNN)多层特征融合的语义分割方法。方法 首先,采用选择搜索方法从图像中生成不同尺度的候选区域,得到区域特征掩膜;其次,采用卷积神经网络提取每个区域的特征,并行融合高层特征与低层特征。由于不同层提取的特征图大小不同,采用RefineNet模型将不同分辨率的特征图进行融合;最后将区域特征掩膜和融合后的特征图输入到自由形式感兴趣区域池化层,经过softmax分类层得到图像的像素级分类标签。结果 采用上下文特征与CNN多层特征融合作为算法的基本框架,得到了较好的性能,实验内容主要包括CNN多层特征融合、结合背景信息和融合特征以及dropout值对实验结果的影响分析,在Siftflow数据集上进行测试,像素准确率达到82.3%,平均准确率达到63.1%。与当前基于区域的端到端语义分割模型相比,像素准确率提高了10.6%,平均准确率提高了0.6%。结论 本文算法结合了区域的前景信息和上下文信息,充分利用了区域的语境信息,采用弃权原则降低网络的参数量,避免过拟合,同时利用RefineNet网络模型对CNN多层特征进行融合,有效地将图像的多层细节信息用于分割,增强了模型对于区域中小目标物体的判别能力,对于有遮挡和复杂背景的图像表现出较好的分割效果。  相似文献   

8.
为了改善现有的立体匹配算法在较高的视差估计精度和较快的模型推理速度之间难以保持良好平衡的问题,提出了一种高效、精确的多层级联循环立体匹配网络。首先,设计了一个多层网络,在较高分辨率的特征图上引入位置编码和自注意机制,再利用分层循环细化、级联细化和循环细化的视差细化策略更新视差值,以便更好地恢复立体图像的细节信息;此外,改进了视差迭代更新的策略,在低尺度下采用轻量级群相关层,在高尺度下采用自适应群相关层来更新差异值,降低了视差迭代更新的计算量,提高了模型的推理速度。实验结果表明,该算法相对于其他算法,在取得极具竞争力的视差估计精度情况下,具有较快的模型推理速度。  相似文献   

9.
王诗言  曾茜  周田  吴华东 《计算机工程》2021,47(3):269-275,283
目前多数利用卷积神经网络进行图像超分辨率重建的方法忽视对自然图像固有属性的捕捉,并且仅在单一尺度下提取特征。针对该问题,提出一种基于注意力机制和多尺度特征融合的网络结构。利用注意力机制融合图像的非局部信息和二阶特征,提高网络的特征表达能力,同时使用不同尺度的卷积核提取图像的不同尺度信息,以保存多尺度完整的信息特征。实验结果表明,该方法重建图像的客观评价指标和视觉效果均优于Bicubic、SRCNN、SCN和LapSRN方法。  相似文献   

10.
为了充分利用人脸图像的潜在信息,提出一种通过设置不同尺寸的卷积核来得到图像多尺度特征的方法,多尺度卷积自动编码器(Multi-Scale Convolutional Auto-Encoder,MSCAE)。该结构所提取的不同尺度特征反映人脸的本质信息,可以更好地还原人脸图像。这种特征提取框架是一个卷积和采样交替的层级结构,使得特征对旋转、平移、比例缩放等具有高度不变性。MSCAE以encoder-decoder模式训练得到特征提取器,用它提取特征,并融合形成用于分类的特征向量。BP神经网络在ORL和Yale人脸库上的分类结果表明,多尺度特征在识别率和性能上均优于单尺度特征。此外,MSCAE特征与HOG(Histograms of Oriented Gradients)的融合特征取得了比单一特征更高的识别率。  相似文献   

11.
针对基于卷积神经网络的立体匹配算法普遍存在参数量巨大、精度不足等问题,提出一种基于卷积神经网络的高效精准立体匹配算法.首先设计了一个融合多尺寸上下文信息的特征提取网络,提高不适定区域(Ill-posed regions)的匹配精度;其次,改进现有的相似度计算步骤,在保证匹配精度的同时,大量减少了网络的参数量;最后,提出一种轻量级的基于注意力机制的视差精修算法,从通道与空间维度上关注并修改初始视差图错误的像素点.与GC-Net在标准数据集Sceneflow上的对比实验表明,该算法在参数量减少14%的同时,匹配精度提高超过了50%.  相似文献   

12.
针对局部立体匹配方法存在的匹配窗口大小选择困难、弱纹理或高光区域立体匹配精度较低等问题,文中结合卷积神经网络(CNN)与图像金字塔方法,提出多尺度融合的立体匹配算法.训练CNN,用于自动学习待匹配图像对的图像特征,完成匹配代价计算.构建图像金字塔,对待匹配图像对进行多尺度表达.构建弱纹理区域模板,将各层待匹配图像划分为弱纹理区域和丰富纹理区域,将弱纹理区域图像变换成小尺度图像进行匹配度计算,降低弱纹理图像的误匹配率.在变换回大尺度图像时与丰富纹理区域匹配结果融合,保持匹配精度.在KITTI 数据集上的实验表明,文中算法具有较好的图像匹配效果.  相似文献   

13.
在卷积神经网络模型中,空间金字塔池化方法将空间信息融入到深度特征的生成过程中,最终生成的图像表示可以有效地用于提高图像检索性能,但是此方法会导致生成的图像表示中不同维度之间描述的信息存在重复且相同维度描述的图像内容不匹配。为此提出了一种基于多尺度特征映射匹配(multi-scale feature map matching,MFMM)的图像表示方法,此方法首先利用深度特征的方差与协方差矩阵提出了一种特征映射选择算法,用于增强图像表示中不同维度特征的独立性。其次,依据相同通道特征映射中高响应值位置有较高匹配性的特点,结合激活映射中最大响应位置的深度特征提出了一种优化的特征映射中心点选择方法。最后,按照不同的中心点通过多尺度窗口采样的方式,从特征映射中提取出带有空间信息的深度特征用于表示图像内容。实验结果表明,提出的方法在图像检索任务中能够取得良好的效果。  相似文献   

14.
一种基于特征约束的立体匹配算法   总被引:11,自引:0,他引:11       下载免费PDF全文
立体匹配一直是计算机视觉领域的一个中心研究问题,为了得到适用于基于图象绘制技术的视图合成高密度视差图,提出了基于边缘特征约束的立体西欧算法,该方法首先利用基于特征技术来得到边缘特征点的准确视差图,然后在边缘特征点视差图的约束下,对非边缘特征点采用区域相关算法进行匹配,这样既缩小了匹配搜索空间,又保证了匹配的可靠性,边缘特征点和边缘特征点的匹配采用双向匹配技术又进一步保证了匹配的可靠性,实验结果表明,该算法效果良好,有实用价值。  相似文献   

15.
基于图像分割的立体匹配算法   总被引:1,自引:0,他引:1  
基于马尔可夫随机场(MRF)的立体匹配算法利用MRF模型来对匹配取值进行连续性约束。然而,MRF模型是产生式模型,图像自身特征难以得到准确描述。提出了一种基于图像分割的立体匹配算法SGC。SGC算法预先对图像进行分割,基于图像分割信息建立立体匹配的MRF模型,从而连续性(平滑)约束可以保留视差图中分割的边缘信息;并针对图像的深度连续性约束,定义了一个反映图像自身特征的新能量函数,应用于图割算法,提高了视差计算精度。实验结果表明,与以往算法相比,SGC算法更准确地反映了图像中深度信息,避免了平滑约束所引入的误差,有效提高了视差计算精度。  相似文献   

16.
针对在三维重建任务中,由于弱纹理区域的光度一致性测量误差较大,使得传统的多视图立体 算法难以处理的问题,提出了一种多尺度特征聚合的递归卷积网络(MARDC-MVSNet),用于弱纹理区域的稠 密点云重建。为了使输入图像分辨率更高,该方法使用一个轻量级的多尺度聚合模块自适应地提取图像特征, 以解决弱纹理甚至无纹理区域的问题。在代价体正则化方面,采用具有递归结构的分层处理网络代替传统的三 维卷积神经网络(CNN),极大程度地降低了显存占用,同时实现高分辨率重建。在网络的末端添加一个深度残 差网络模块,以原始图像为指导对正则化网络生成的初始深度图进行优化,使深度图表述更准确。实验结果表 明,在 DTU 数据集上取得了优异的结果,该网络在拥有较高深度图估计精度的同时还节约了硬件资源,且能 扩展到航拍影像的实际工程之中。  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司    京ICP备09084417号-23

京公网安备 11010802026262号