首页 | 官方网站   微博 | 高级检索  
相似文献
 共查询到20条相似文献,搜索用时 15 毫秒
1.
由于图像数据中普遍存在的“语义鸿沟”问题,传统的基于内容的图像检索技术对于数字图书馆中的图像检索往往力不从心。而图像标注能有效地弥补语义的缺失。文中分析了图像语义标注的现状以及存在的问题,提出了基于语义分类的文物语义标注方法。算法首先通过构建一个Bayes语义分类器对待标注图像进行语义分类,进而通过在语义类内部建立基于统计的标注模型,实现了图像的语义标注。在针对文物图像进行标注的实验中,该方法获得了较好的标注准确率和效率。  相似文献   

2.
由于图像数据中普遍存在的“语义鸿沟”问题,传统的基于内容的图像检索技术对于数字图书馆中的图像检索往往力不从心。而图像标注能有效地弥补语义的缺失。文中分析了图像语义标注的现状以及存在的问题,提出了基于语义分类的文物语义标注方法。算法首先通过构建一个Bayes语义分类器对待标注图像进行语义分类,进而通过在语义类内部建立基于统计的标注模型,实现了图像的语义标注。在针对文物图像进行标注的实验中,该方法获得了较好的标注准确率和效率。  相似文献   

3.
作为图像检索技术中重要环节的语义标注,其标注的准确度决定着最终检索效果。介绍了语义标注的基础(即语义层次模型),总结了语义标注常用的方法:人工手动标注和计算机标注系统,并且分析了两种方法的具体实现以及优缺点。  相似文献   

4.
结合Web背景知识的图像语义标注   总被引:1,自引:0,他引:1  
针对基于内容的图像语义标注方法中,相同或相近视觉特征对应语义可能不同的情况,提出了一个结合Web背景知识的图像语义关联模型,利用从Web页面中提取的与图像相关的属性,计算Web图像与标注关键词间的语义相关性,确定待标注Web图像的语义,实验表明该方法具有较好的性能。  相似文献   

5.
图像语义自动标注成为基于内容的图像检索研究的热点,提出一种改进的SML两级图像语义自动标注方法.首先采用监督多类标注方法 SML对图像进行粗略标注,然后用基于本体的最优语义标注方法(Oostia)对粗略标注的结果进行精细标注,Oostia方法通过4种不同方式对粗略标注关键字进行扩展,充分挖掘图像中丰富的语义信息.文中提出的方法与其它相关方法进行了比较,实验结果表明,该方法优于其它方法.  相似文献   

6.
连接高层语义和低层视觉特征的图像语义标注技术能够很好地表示图像的语义,提出并实现了一种结合相关反馈日志与语义网络的图像标注方法。该方法以收集的用户相关反馈日志为基础获得图像的语义信息,通过计算图像间的语义相似度进行语义聚类并采用语义传播的方式实现图像的语义标注。实验结果表明,随着相关反馈日志库的不断扩充,图像库中越来越多的图像会在反馈的过程中得到标注且标注的准确率会随着反馈次数的增加而趋于稳定。  相似文献   

7.
建模连续视觉特征的图像语义标注方法   总被引:1,自引:0,他引:1  
针对图像检索中存在的"语义鸿沟"问题,提出一种对连续视觉特征直接建模的图像自动标注方法.首先对概率潜语义分析(PLSA)模型进行改进,使之能处理连续量,并推导对应的期望最大化算法来确定模型参数;然后根据不同模态数据各自的特点,提出一个对不同模态数据分别处理的图像语义标注模型,该模型使用连续PLSA建模视觉特征,使用标准PLSA建模文本关键词,并通过不对称的学习方法学习2种模态之间的关联,从而能较好地对未知图像进行标注.通过在一个包含5000幅图像的标准Corel数据集中进行实验,并与几种典型的图像标注方法进行比较的结果表明,文中方法具有更高的精度和更好的效果.  相似文献   

8.
近年来,卷积神经网络在图像处理方面的良好性能得到了广泛关注。为了更好地提取图像内容信息,提高图像分类精度,提出了一种基于深度多特征融合的CNNs图像分类算法。算法有效深度融合了图像的多种特征,即使用k-means++聚类算法提取的主颜色特征和利用去噪卷积神经网络提取的空间位置特征。实验结果表明,提出的基于深度多特征融合的CNNs图像分类算法在图像分类方面提供了有竞争力的结果,分类精度比CNN提升了7个百分点。该算法通过深度融合图像的多种特征,可为后续图像处理提供更全面更显著的有用信息。  相似文献   

9.
针对因光照及物体颜色相近等问题导致的图像分割不准确问题,论文提出了一种结合深度信息的室内图像语义分割方法.首先利用像素之间的深度相似性,将相似图像几何结构无缝地合并到卷积神经网络(CNN)中,以生成像素级每个类别的一元势能响应;然后将图像深度信息融合到对比敏感的双核势能条件随机场(CRF)中,将其与先前的一元势能结合进行室内图像细化分割进而获得最终结果;最后采用NYUv2数据集、三个平均指标,将论文方法和已有的五种分割方法进行对比实验,结果表明论文方法有着良好表现,可以有效地改善室内图像分割精度.  相似文献   

10.
传统图像标注方法中人工选取特征费时费力,传统标签传播算法忽视语义近邻,导致视觉相似而语义不相似,影响标注效果.针对上述问题,文中提出融合深度特征和语义邻域的自动图像标注方法.首先构建基于深度卷积神经网络的统一、自适应深度特征提取框架,然后对训练集划分语义组并建立待标注图像的邻域图像集,最后根据视觉距离计算邻域图像各标签的贡献值并排序得到标注关键词.在基准数据集上实验表明,相比传统人工综合特征,文中提出的深度特征维数更低,效果更好.文中方法改善传统视觉近邻标注方法中的视觉相似而语义不相似的问题,有效提升准确率和准确预测的标签总数.  相似文献   

11.
图像语义自动标注问题是现阶段一个具有挑战性的难题。在跨媒体相关模型基础上,提出了融合图像类别信息的图像语义标注新方法,并利用关联规则挖掘算法改善标注结果。首先对图像进行低层特征提取,用“视觉词袋”描述图像;然后对图像特征分别进行K-means聚类和基于支持向量机的多类别分类,得到图像相似性关系和类别信息;计算语义标签和图像之间的概率关系,并将图像类别信息作为权重融合到标签的统计概率中,得到候选标注词集;最后以候选标注词概率为依据,利用改善的关联规则挖掘算法挖掘文本关联度,并对候选标注词集进行等频离散化处理,从而得到最终标注结果。在图像集Corel上进行的标注实验取得了较为理想的标注结果。  相似文献   

12.
针对基于深度特征的图像标注模型训练复杂、时空开销大的不足,提出一种由深 度学习中间层特征表示图像视觉特征、由正例样本均值向量表示语义概念的图像标注方法。首 先,通过预训练深度学习模型的中间层直接输出卷积结果作为低层视觉特征,并采用稀疏编码 方式表示图像;然后,采用正例均值向量法为每个文本词汇构造视觉特征向量,从而构造出文 本词汇的视觉特征向量库;最后,计算测试图像与所有文本词汇的视觉特征向量相似度,并取 相似度最大的若干词汇作为标注词。多个数据集上的实验证明了所提出方法的有效性,就 F1 值而言,该方法在 IAPR TC-12 数据集上的标注性能比采用端到端深度特征的 2PKNN 和 JEC 分 别提高 32%和 60%。  相似文献   

13.
在图像语义分割中使用卷积网络进行特征提取时,由于最大池化和下采样操作的重复组合引起了特征分辨率降低,从而导致上下文信息丢失,使得分割结果失去对目标位置的敏感性。虽然基于编码器-解码器架构的网络通过跳跃连接在恢复分辨率的过程中逐渐细化了输出精度,但其将相邻特征简单求和的操作忽略了特征之间的差异性,容易导致目标局部误识别等问题。为此,文中提出了基于深度特征融合的图像语义分割方法。该方法采用多组全卷积VGG16模型并联组合的网络结构,结合空洞卷积并行高效地处理金字塔中的多尺度图像,提取了多个层级的上下文特征,并通过自顶向下的方法逐层融合,最大限度地捕获上下文信息;同时,以改进损失函数而得到的逐层标签监督策略为辅助支撑,联合后端像素建模的全连接条件随机场,无论是在模型训练的难易程度还是预测输出的精度方面都有一定的优化。实验数据表明,通过对表征不同尺度上下文信息的各层深度特征进行逐层融合,图像语义分割算法在目标对象的分类和空间细节的定位方面都有所提升。在PASCAL VOC 2012和PASCAL CONTEXT两个数据集上获得的实验结果显示,所提方法分别取得了80.5%和45.93%的mIoU...  相似文献   

14.
缩小图像低层视觉特征与高层语义之间的鸿沟,以提高图像语义自动标注的精度,是研究大规模图像数据管理的关键。提出一种融合多特征的深度学习图像自动标注方法,将图像视觉特征以不同权重组合成词包,根据输入输出变量优化深度信念网络,完成大规模图像数据语义自动标注。在通用Corel图像数据集上的实验表明,融合多特征的深度学习图像自动标注方法,考虑图像不同特征的影响,提高了图像自动标注的精度。  相似文献   

15.
李伟  黄鹤鸣  武风英  张会云 《计算机工程》2021,47(9):235-239,251
为更好地提取图像内容信息,提高图像分类精度,提出一种自适应卷积神经网络(CNN)图像分类算法。通过融合图像的主颜色特征,利用CNN提取空间位置特征,且针对多特征融合权重值的设定问题,运用改进的差分演化算法优化各特征权值,提高固定权值分类精确度。实验结果表明,该算法分类精度相比CNN算法提升了9.2个百分点,在图像分类中具有较好的分类效果。  相似文献   

16.
为解决在图像特征识别分类等机器学习任务中,存在输入图像数据复杂度过高且与部分数据与特征无关的问题,提出了一种多智能体深度强化学习的图像特征分类方法。将图像特征分类任务转化为一个部分可观测的马尔可夫决策过程。通过使用多个移动的同构智能体去收集部分图像信息,并研究智能体如何形成对图像的局部理解并采取行动,以及如何从局部观察的图像中提取相关特征并分类,以此降低数据复杂性和过滤掉不相关数据。通过改进的值函数分解方法训练智能体策略网络,对环境的全局回报按照每个智能体的贡献进行拆分,解决智能体的信度分配问题。该方法在MNIST手写数字数据集和NWPU-RESISC45遥感图像数据集上进行了验证,相比基线算法能够学习到更加有效的联合策略,分类过程拥有更好的稳定性,同时精确率也有提升。  相似文献   

17.
18.
基于特征融合的图像情感语义分类   总被引:1,自引:0,他引:1  
基于颜色或颜色-空间信息的图像分类方法,由于没有考虑图像中所含目标对象的形状特征,分类效果不够理想,以服装图像作为数据源,提出并设计了颜色-边缘方向角二维直方图,将图像的颜色特征与形状特征融合起来进行图像分类。图像中的低阶可视化特征与高阶情感概念之间有着密切的关联,分析了服装图像的颜色和形状的融合特征与情感之间的相关性,采用概率神经网络作为分类算法来完成情感语义分类,实验结果表明,该方法的分类精度有了明显的提高。  相似文献   

19.
遥感图像分类是遥感图像分析和理解的基础,是遥感图像研究中的重要内容之一。为提高分类效果,遥感图像分类中通常需要综合运用多种特征。提出一个新的基于特征级融合的遥感图像分类方法。将多种图像空间特征和光谱特征分别作为分类器的输入,将各分类器的概率输出拼接起来作为中间层特征再进行分类。该方法有效避免了多特征直接拼接存在的尺度问题。在Indian93和Flightline C1两个数据集上的实验结果表明该方法具有一定优势。  相似文献   

20.
该文提出了一个基于多层长短期记忆神经网络的语义角色标注方法,并装置了新颖的“直梯单元”(elevator unit, EU)。EU包含了对单元内部输入和输出的线性连接,使信息可以通畅地在不同层之间传播。通过EU,一个20层的LSTM网络可以得到比较充分的优化。重要的是,这个线性连接包含的“门”函数可以正则和控制信息在时间方向和空间方向上的传播。不同层次的抽象信息也可以被EU直接带到输出层进行语义角色标注。尽管这个模型非常简单,不需要任何额外的特征输入,但是它取得了理想的实验结果,在CoNLL-2005公开数据集上取得了F=81.56%的结果,在CoNLL-2012公开数据集上取得了F=82.53%的结果,比之前最好的结果分别提高了0.5%和1.26%。另外,在领域外的数据集上我们也取得了F值2.2%的显著提升,这是当前世界上最好的性能。该模型比较简洁,非常容易实现和并行,在单一的K40 GPU上取得了每秒11.8K单词的解析速度,远远高于之前的方法。  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司    京ICP备09084417号-23

京公网安备 11010802026262号