首页 | 官方网站   微博 | 高级检索  
相似文献
 共查询到19条相似文献,搜索用时 218 毫秒
1.
抽象画作为一种寓意含蓄的艺术作品,传递出的情感也是含蓄的,确定其情感分类也比较困难,为此采用多特征融合方式预测抽象画的情感。首先采用K-means聚类提取抽象画图像的主色调作为底层颜色特征,采用灰度—梯度共生矩阵提取底层纹理特征,采用卷积神经网络自动提取高层语义特征;其次由于特征维度不同,采用多核学习对底层和高级语义特征进行融合;最后采用支持向量机实现抽象画情感识别,分为积极与消极两类。在MART数据集上进行测试,并与其他现有分类模型进行了比较,实验结果显示该方法在测试性能上优于已有模型。  相似文献   

2.
为提高仅包含少量训练样本的图像识别准确率,利用卷积神经网络作为图像的特征提取器,提出一种基于卷积神经网络的小样本图像识别方法。在原始小数据集中引入数据增强变换,扩充数据样本的范围;在此基础上将大规模数据集上的源预训练模型在目标小数据集上进行迁移训练,提取除最后全连接层之外的模型权重和图像特征;结合源预训练模型提取的特征,采用层冻结方法,微调目标小规模数据集上的卷积模型,得到最终分类识别结果。实验结果表明,该方法在小规模图像数据集的识别问题中具有较高的准确率和鲁棒性。  相似文献   

3.
为获得更具判别性的视觉特征并提升情感分类效果,构建融合双注意力多层特征的视觉情感分析模型。通过卷积神经网络提取图像多通道的多层次特征,根据空间注意力机制对多通道的低层特征赋予空间注意力权重,利用通道注意力机制对多通道的高层特征赋予通道注意力权重,分别强化不同层次的特征表示,将强化后的高层特征和低层特征进行融合,形成用于训练情感分类器的判别性特征。在3个真实数据集Twitter Ⅰ、Twitter Ⅱ和EmotionROI上进行对比实验,结果表明,该模型的分类准确率分别达到79.83%、78.25%和49.34%,有效提升了社交媒体视觉情感分析的效果。  相似文献   

4.
传统的图像分类算法在数据集过小的情况下分类准确率不高,且传统的图像变形方法容易破坏数据主体语义信息。基于图像变形网络的小样本图像分类算法研究中,采用端对端的方式结合图像变形网络和小样本图像分类网络,通过加权融合训练图像和相似图像的方式实现了对原有数据集的有效扩充,利用数据增强提高了小样本图像分类的准确率。实验数据表明,提出的方法在mini-ImageNet数据集上对小样本图像分类网络的性能有较好的提升效果。  相似文献   

5.
为实现更为准确的甲状腺结节良恶性超声图像诊断,避免不必要的穿刺或活检手术,提出了一种基于卷积神经网络(CNN)的常规超声成像和超声弹性成像的特征结合方法,提高了甲状腺结节良恶性分类准确率。首先,卷积网络模型在大规模自然图像数据集上完成预训练,并通过迁移学习的方式将特征参数迁移到超声图像域用以生成深度特征并处理小样本。然后,结合常规超声成像和超声弹性成像的深度特征图形成混合特征空间。最后,在混合特征空间上完成分类任务,实现了一个端到端的卷积网络模型。在1156幅图像上进行实验,所提方法的准确率为0.924,高于其他单一数据源的方法。实验结果表明,浅层卷积共享图像的边缘纹理特征,高层卷积的抽象特征与具体的分类任务相关,使用迁移学习的方法可以解决数据样本不足的问题;同时,弹性超声影像可以对甲状腺结节的病灶硬度进行客观的量化,结合常规超声的纹理轮廓特征,二者融合的混合特征可以更全面地描述不同病灶之间的差异。所提方法可以高效准确地对甲状腺结节进行良恶性分类,减轻患者痛苦,给医生提供更为准确的辅助诊断信息。  相似文献   

6.
小样本目标检测旨在通过少量的样本学习来训练目标检测模型,现有的小样本目标检测方法大多基于经典的目标检测算法。在二阶段的检测方法中,由于新类别样本数量少,产生了许多无关的边界框,导致候选区域的准确率较低。为了解决这个问题,提出了一种基于特征融合的小样本目标检测算法FF-FSOD。该方法采用特征融合的方法进行数据增强,对新类别样本进行补充,扩大样本的覆盖范围,同时引入FPN网络进行多尺度特征提取,再对RPN网络进行改进,引入支持集图像分支,计算支持集图像特征与查询集图像特征的深度互相关性,得到注意力特征图,进而获得更精确的候选框。所提模型的有效性在MS COCO和FSOD数据集上得到了验证,实验结果表明,该方法获得了更精准的候选框,进而提升了检测精度。  相似文献   

7.
域名生成算法(DGA)存在变化多、部分类别样本难获取的特点,使得采用传统机器学习的恶意域名检测模型准确性不高。提出一种基于迁移学习和多核CNN的小样本DGA恶意域名检测模型。该模型将目标域名映射到向量空间中,使用样本充足的DGA种类进行预训练,并迁移预训练得到的参数到小样本检测模型。采用多核CNN小样本分类模型根据发音习惯进行域名特征提取并分类。通过实验对比发现,无知识迁移的小样本分类模型只有11类域名准确率超过92%,经过迁移学习的多核CNN模型20类准确率超过92%,11类准确率超过97%,检测效果接近数据充足时的分类效果。  相似文献   

8.
目的 针对基于区域的语义分割方法在进行语义分割时容易缺失细节信息,造成图像语义分割结果粗糙、准确度低的问题,提出结合上下文特征与卷积神经网络(CNN)多层特征融合的语义分割方法。方法 首先,采用选择搜索方法从图像中生成不同尺度的候选区域,得到区域特征掩膜;其次,采用卷积神经网络提取每个区域的特征,并行融合高层特征与低层特征。由于不同层提取的特征图大小不同,采用RefineNet模型将不同分辨率的特征图进行融合;最后将区域特征掩膜和融合后的特征图输入到自由形式感兴趣区域池化层,经过softmax分类层得到图像的像素级分类标签。结果 采用上下文特征与CNN多层特征融合作为算法的基本框架,得到了较好的性能,实验内容主要包括CNN多层特征融合、结合背景信息和融合特征以及dropout值对实验结果的影响分析,在Siftflow数据集上进行测试,像素准确率达到82.3%,平均准确率达到63.1%。与当前基于区域的端到端语义分割模型相比,像素准确率提高了10.6%,平均准确率提高了0.6%。结论 本文算法结合了区域的前景信息和上下文信息,充分利用了区域的语境信息,采用弃权原则降低网络的参数量,避免过拟合,同时利用RefineNet网络模型对CNN多层特征进行融合,有效地将图像的多层细节信息用于分割,增强了模型对于区域中小目标物体的判别能力,对于有遮挡和复杂背景的图像表现出较好的分割效果。  相似文献   

9.
当前小目标检测算法的实现方式主要是设计各种特征融合模块,检测效果和模型复杂度很难达到平衡.此外,与常规目标相比,小目标信息量少,特征难以提取.为了克服这两个问题,采用了一种不降维局部跨通道交互策略的通道注意力模块,实现通道间的信息关联,通过对每个通道的特征进行权重分配来学习不同通道间特征的相关性.同时,加入改进的特征融合模块,使网络可以使用低层和高层的特征进行多尺度目标检测,提升了以低层特征为主要检测依据的小目标检测精度.骨干网络采用特征表达能力强和速度快的ResNet,在获取更多网络特征的同时保证了网络的收敛性.损失函数采用Focal Loss,减少易分类样本的权重,使得模型在训练时更关注于难分类样本的分类.该算法框架在VOC数据集上的mAP为82.7%,在航拍数据集上的mAP为86.8%.  相似文献   

10.
小样本学习的分类结果依赖于模型对样本特征的表达能力,为了进一步挖掘图像所表达的语义信息,提出一种多级度量网络的小样本学习方法。将输入图像的特征向量放入嵌入模块进行特征提取;将经过第二层卷积及第三层卷积得到的特征描述子分别进行图像-类的度量以获得图像关系得分,对第四层卷积得到的特征向量进行全连接并将其做图像-图像的度量从而得到图像从属概率;通过交叉验证对2个图像关系得分以及1个图像从属概率进行加权融合并输出分类结果。实验结果表明在miniImageNet数据集上,该方法 5-way 1-shot准确率为56.77%,5-way 5-shot准确率为75.83%。在CUB数据集上,该方法 5-way 1-shot及5-way 5-shot准确率分别上升到55.34%及76.32%。在Omniglot数据集上准确率同传统方法相比也有一定提升。因此,该方法可有效挖掘图像中所表达的语义信息,显著提高小样本图像分类的准确率。  相似文献   

11.
为了提高图像语义特征提取的精确度,克服目前大部分图像语义特征提取算法中,因图像特征提取不当,导致特征参数不能全面反映图像语义的问题,提出了一种基于典型相关分析(CCA)的特征融合的图像语义特征提取方法。该方法首先采用圆形对称邻域取代传统的矩形邻域的方法,对局部二值模式(LBP)纹理特征进行了改进,然后采用高维小样本下典型相关分析对可伸缩颜色描述算子的颜色特征和改进的LBP纹理特征进行特征融合。实验结果表明,所提出的方法明显提高了图像语义特征提取的精确度,能有效地建立图像的低层特征与语义特征间的一致性。  相似文献   

12.
针对通用目标检测算法在检测航空影像目标所表现的性能缺陷,提出一种改进Mask R-CNN算法用于航空影像的目标检测。该算法增加图像融合网络,将可见光图像与红外图像进行融合,消除目标被阴影遮蔽对检测造成的影响;同时改进了特征金字塔结构,使特征提取过程中的高层语义特征和低层定位信息得到充分融合,各尺度目标的检测精度得到提升;为解决小目标检测精度低和定位难度高的问题,该算法采用新型区域建议网络SD-RPN,在不同深度的卷积层设置合理大小的滑动窗口,用以检测不同尺度类型目标,使建议区域更加精准。实验结果表明,相比较主流检测算法,该算法在VEDAI数据集上表现出色,检测精度提升较大,尤其是小目标检测的精度提升显著。  相似文献   

13.
提出一种利用神经网络获取图像语义的算法。通过构建一个RBF神经网络,在图像的颜色、纹理、形状等低层视觉特征和高层语义特征之间建立映射关系。利用遗传算法训练RBF网络,获得RBF网络的隐节点个数、中心、宽度和连接权值等参数值,训练成功后的神经网络能够自动获取图像的语义。实验结果表明,该算法具有较好的基于语义的检索效果,体现了人对图像内容的理解,符合人的思维习惯。  相似文献   

14.
郭可心  张宇翔 《计算机应用》2021,41(10):2835-2841
随着社交网络的不断普及,相对于传统的文字描述,人们更倾向于发布图文结合的评论来表达自己的情感与意见。针对图文情感分析方法中仅考虑图文间的高级语义联系,而较少注意图片的低层次情感特征以及中层美学特征与文本情感之间关联性的问题,提出了一种基于多层次空间注意力(MLSA)的图文评论情感分析方法。所提方法以文本内容为驱动,使用MLSA设计图像与文本之间的特征融合方法,该特征融合方法不仅关注与文本相关的图像实体特征,而且充分利用图像的中层美学特征和低层视觉特征,从而从多个不同角度挖掘图文之间的情感共现。在两个公开的图文情感数据集MVSA_Single和MVSA_Multi上,该方法的分类效果相对于对比方法中最优的方法的分类效果在准确率上分别提高了0.96和1.06个百分点,在F1值上分别提高了0.96和0.62个百分点。实验结果表明,综合分析文本特征和图像特征之间的层次化联系能有效地增强神经网络捕捉图文情感语义的能力,从而更准确地预测图文整体的情感。  相似文献   

15.
一种图像底层视觉特征到高层语义的映射方法   总被引:4,自引:0,他引:4  
基于语义内容的图像检索已经成为解决图像底层特征与人类高层语义之间“语义鸿沟”的关键。根据图像语义检索的思想,提出了一种采用支持向量机(Support Machine Vector)实现图像底层视觉特征到高层语义的映射方法,并在此基础上针对特例库实现了图像的语义标注和检索。实验结果表明,该映射方法能较好地表达人的语义,以提高图像的检索效率。  相似文献   

16.
抽象画图像的自动方向检测由于其内容的含蓄性与自然图像相比会比较困难。为了提高抽象画图像方向自动检测的准确率,将每一幅绘画图像逆时针旋转四个角度(0°,90°,180°,270°),提取四幅图像的非旋转不变等价局部二值模式(nri-uniform-LBP)描述符作为特征,通过AdaBoost算法进行自动方向检测,将绘画分为“向上”和“不向上”两类。实验结果表明,该方法能有效提高抽象画图像方向自动检测的准确率,也为抽象绘画图像研究提供了一个新的研究视角。  相似文献   

17.
卷积神经网络在手势识别领域应用广泛,但现有的卷积神经网络存在特征表征不足的问题,导致手势识别精度较低。提出一种轻量级静态手势识别算法r-mobilenetv2,通过串联通道注意力与空间注意力,将两者输出的特征图以跳跃连接的形式线性相加,得到一种全新的注意力机制。使用一维卷积调整低层特征的通道维度,将低级特征与经过上采样的高层特征进行空间维度匹配及通道维度匹配,并进行线性相加,其结果经卷积操作后与高层特征按通道维度连接,从而实现特征融合。在此基础上,将所提注意力机制与特征融合相结合,并用于改进后的轻量级网络MobileNetV2中,得到r-mobilenetv2算法。实验结果表明,与MobileNetV2算法相比,r-mobilenetv2算法的参数量降低了27%,错误率下降了1.82个百分点。  相似文献   

18.
刘兵  张鸿 《计算机应用》2016,36(2):531-534
针对基于内容的图像检索(CBIR)中低层视觉特征与用户对图像理解的高层语义不一致以及传统的距离度量方式难以真实反映图像之间相似程度等问题,提出了一种基于卷积神经网络(CNN)和流形排序的图像检索算法。首先,将图像输入CNN,通过多层神经网络对图像的监督学习,提取网络中全连接层的图像特征;其次,对图像特征进行归一化处理,然后用高效流形排序(EMR)算法对查询图像所返回的结果进行排序;最后,根据排序的结果返回最相似的图像。在corel数据集上,深度图像特征比基于场景描述的图像特征的平均查准率(mAP)提高了53.74%,流形排序比余弦距离度量方式的mAP提高了18.34%。实验结果表明,所提算法能够有效地提高图像检索的准确率。  相似文献   

19.
RGB-D 图像在提供场景 RGB 信息的基础上添加了 Depth 信息,可以有效地描述场景的色彩及 三维几何信息。结合 RGB 图像及 Depth 图像的特点,提出一种将高层次的语义特征反向融合到低层次的边缘 细节特征的反向融合实例分割算法。该方法通过采用不同深度的特征金字塔网络(FPN)分别提取 RGB 与 Depth 图像特征,将高层特征经上采样后达到与最底层特征同等尺寸,再采用反向融合将高层特征融合到低层,同时 在掩码分支引入掩码优化结构,从而实现 RGB-D 的反向融合实例分割。实验结果表明,反向融合特征模型能 够在 RGB-D 实例分割的研究中获得更加优异的成绩,有效地融合了 Depth 图像与彩色图像 2 种不同特征图像 特征,在使用 ResNet-101 作为骨干网络的基础上,与不加入深度信息的 Mask R-CNN 相比平均精度提高 10.6%, 比直接正向融合 2 种特征平均精度提高 4.5%。  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司    京ICP备09084417号-23

京公网安备 11010802026262号