首页 | 官方网站   微博 | 高级检索  
相似文献
 共查询到10条相似文献,搜索用时 31 毫秒
1.
随着互联网中图像资源的不断增长,情感作为图像的一个重要语义,是人们检索和选择图像的重要依据,因此对于图像进行情感标注显得至关重要。结合脑电信号(EEG)和图像内容,提出了一种基于多模态信息融合的图像情感标注方法。首先,提取EEG频域特征及图像特征(颜色及纹理);其次,结合两者特征信息,基于两种融合策略(特征层和决策层),构建支持向量机分类模型,进行图像情感识别与标注。为了评估方法的有效性,使用国际情绪图片系统公共数据集进行了实验验证。结果表明,提出的多模态信息融合图像情感标注方法优于单独使用EEG或图像内容的标注方法。此外,该成果有助于缩小低层视觉特征和高层情感语义之间的语义鸿沟。  相似文献   

2.
针对自主驾驶车辆在真实驾驶环境下对低辨识目标的识别问题,提出了基于多模态特征融合的目标检测方法。基于Faster R-CNN算法设计多模态深度卷积神经网络,融合彩色图像、偏振图像、红外图像特征,提高对低辨识目标的检测性能;开发多模态(3种)图像低辨识度目标实时检测系统,探索多模态图像特征融合在自动驾驶智能感知系统中的应用。建立了人工标注过的多模态(3种)图像低辨识目标数据集,对深度学习神经网络进行训练,优化内部参数,使得该系统适用于复杂环境下对行人、车辆目标的检测和识别。实验结果表明,相对于传统的单模态目标检测算法,基于多模态特征融合的深度卷积神经网络对复杂环境下的低辨识目标具有更好的检测和识别性能。  相似文献   

3.
针对自主驾驶车辆在真实驾驶环境下对低辨识目标的识别问题,提出了基于多模态特征融合的目标检测方法。基于Faster R-CNN算法设计多模态深度卷积神经网络,融合彩色图像、偏振图像、红外图像特征,提高对低辨识目标的检测性能;开发多模态(3种)图像低辨识度目标实时检测系统,探索多模态图像特征融合在自动驾驶智能感知系统中的应用。建立了人工标注过的多模态(3种)图像低辨识目标数据集,对深度学习神经网络进行训练,优化内部参数,使得该系统适用于复杂环境下对行人、车辆目标的检测和识别。实验结果表明,相对于传统的单模态目标检测算法,基于多模态特征融合的深度卷积神经网络对复杂环境下的低辨识目标具有更好的检测和识别性能。  相似文献   

4.
应用图学习算法的跨媒体相关模型图像语义标注   总被引:1,自引:0,他引:1  
针对传统跨媒体相关模型(CMRM)只考虑图像的视觉信息与标注词之间的相关性,忽略标注词之间所具有的语义相关性的问题,本文提出了一种新的基于图学习算法的CMRM图像语义标注方法。该方法首先根据运动领域图片训练集中的标注词,建立运动领域本体来标注图像;然后采用传统的CMRM标注算法对训练集图像进行第一次标注,获得基于概率模型的图像标注结果;最后,根据本体概念相似度,利用图学习方法对第一次标注结果进行修正,在每幅图像的概率关系表中选择概率最大的N个关键词作为最终的标注结果,完成第二次标注。实验结果表明,本文提出的模型的查全率和查准率均高于传统的CMRM算法。  相似文献   

5.
针对三维CAD模型检索中的语义鸿沟问题,提出一种基于局部形状分布及语义概率统计的三维CAD模型自动语义标注算法.采用基于局部形状分布的多尺度特征提取方法获取CAD模型的形状信息,并计算不同模型之间的形状相似度;根据模型样本库中已知的语义分类信息,构建一个基于概率的标注框架对CAD模型进行语义标注,以建立模型形状信息和语义信息之间的联系.实验结果表明,该算法能够有效提高三维CAD模型检索的准确率,检索性能优于仅使用形状信息时的检索结果.  相似文献   

6.
针对基于深度学习的DeepLabV3+语义分割算法在编码特征提取阶段大量细节信息被丢失,导致其在物体边缘部分分割效果不佳的问题,本文提出了基于DeepLabV3+与超像素优化的语义分割算法。首先,使用DeepLabV3+模型提取图像语义特征并得到粗糙的语义分割结果;然后,使用SLIC超像素分割算法将输入图像分割成超像素图像;最后,融合高层抽象的语义特征和超像素的细节信息,得到边缘优化的语义分割结果。在PASCAL VOC 2O12数据集上的实验表明,相比较DeepLabV3+语义分割算法,本文算法在物体边缘等细节部分有着更好的语义分割性能,其mIoU值达到83.8%,性能得到显著提高并达到了目前领先的水平。  相似文献   

7.
语义分割为图像分配像素级稠密标签,对场景理解具有重要作用,是视觉研究核心任务之一,涉及自动驾驶、医学成像等实际应用.现有基于深度神经网络的图像语义分割方法的训练需要大量标记数据,这些数据的收集和标记成本高昂,这很大程度上限制了此类方法的实际应用.为解决此问题,这里使用成本较低的计算机生成并标记的逼真的合成数据训练深度神经网络.但真实图像与合成图像在分布域上存在的差异会降低模型性能,因此这里使用一种对抗学习方法来实现域的自适应,以解决上述问题.又因为语义分割的结构化输出描述了源域与目标域的空间相似性,所以这里选择在语义分割的输出空间上实现域自适应方法.在此基础上,这里又于不同级别的空间构建多级域自适应网络以提升模型性能.  相似文献   

8.
视觉显著目标的自适应分割   总被引:2,自引:2,他引:0  
基于视觉注意模型和最大熵分割算法,提出了一种自适应显著目标分割方法来分离目标和复杂背景,以便快速准确地从场景图像中检测出显著目标。首先,通过颜色、强度、方向和局部能量4个特征通道获取图像的显著图;通过引入局部能量通道来更好地描述了显著目标的轮廓。然后,根据显著图中像素灰度的强弱构建不同的目标检测蒙板,将每个蒙板作用于原图像作为预分割的结果,再计算每个预分割图像的熵。最后,利用最大熵准则估计图像目标熵,根据预分割图像的熵和目标熵判断选取最优显著目标分割图像。实验结果表明:本文算法检测的显著目标更为完整,分割性能F-measure达到0.56,查全率和查准率分别为0.69和0.41,相对于传统方法更为有效准确,实现了在复杂背景下对显著目标的有效准确检测。  相似文献   

9.
为提高图像语义分割准确程度,针对场景解析中类别边缘分辨清晰度,提出了一种基于多路径网络的权值调整图像语义分割算法。通过引入多路径网络和权值调整并对图像场景中的物体类别具有的特征进行分析,提高图像的语义分割的准确程度;通过采用ADE20K数据集进行训练,提高边缘信息的分割效果,使模型具有更好的泛化能力。此算法加快了网络收敛速度。  相似文献   

10.
特种视频(本文特指暴力视频)的智能分类技术有助于实现网络信息内容安全的智能监控。针对现有特种视频多模态特征融合时未考虑语义一致性等问题,本文提出了一种基于音视频多模态特征融合与多任务学习的特种视频识别方法。首先,提取特种视频的表观信息和运动信息随时空变化的视觉语义特征及音频信息语义特征;然后,构建具有语义保持的共享特征子空间,以实现音视频多种模态特征的融合;最后,提出基于音视频特征的语义一致性度量和特种视频分类的多任务学习特种视频分类理论框架,设计了对应的损失函数,实现了端到端的特种视频智能识别。实验结果表明,本文提出的算法在Violent Flow和MediaEval VSD 2015两个数据集上平均精度分别为97.97%和39.76%,优于已有研究。结果证明了该算法的有效性,有助于提升特种视频监控的智能化水平。  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司    京ICP备09084417号-23

京公网安备 11010802026262号