首页 | 官方网站   微博 | 高级检索  
相似文献
 共查询到20条相似文献,搜索用时 15 毫秒
1.
视觉词袋模型(BoVW)是当前图像分类领域的主流方法,然而,视觉单词同义性和歧义性问题严重制约了该模型的性能,进而降低图像分类准确率。针对该问题,本文提出一种基于自适应软分配的图像分类方法。该方法首先对尺度不变特征变换(SIFT)特征映射到视觉单词的距离进行分析,按一定的规则进行归类,并针对具有不同模糊程度的SIFT特征采用自适应的分配策略;然后,通过卡方模型分析各个视觉单词与图像类别之间的相关性,并依此去除视觉停用词(VSW),重构视觉单词统计直方图;最后,输入到支持向量机(SVM)完成分类。实验结果表明,该优化方法能有效地降低视觉单词同义性和歧义性问题带来的影响,增强视觉单词的区分性,进而提高图像分类准确率。  相似文献   

2.
一种基于词袋模型的图像分类方法   总被引:1,自引:0,他引:1       下载免费PDF全文
采用词袋模型(BoW)对图像进行分类,并针对传统词袋模型存在的不足进行了改进,提出了一种特征软量化的方式。软赋值量化通过将局部显著特征量化(SIFT)为与其距离最近的若干个视觉单词,并对其进行加权,由此保存特征空间中的距离信息,从而解决硬赋值量化造成的特征空间信息损失问题。通过在Caltech 101数据库进行实验,验证了本文方法的有效性,实验结果表明,该方法能够大幅度提高图像分类的性能。  相似文献   

3.
在目标分类领域,当前主流的目标分类方法是基于视觉词典模型,而时间效率低、视觉单词同义性和歧义性及单词空间信息的缺失等问题严重制约了其分类性能。针对这些问题,该文提出一种基于弱监督的精确位置敏感哈希(E2LSH)和显著图加权的目标分类方法。首先,引入E2LSH算法对训练图像集的特征点聚类生成一组视觉词典,并提出一种弱监督策略对E2LSH中哈希函数的选取进行监督,以降低其随机性,提高视觉词典的区分性。然后,利用GBVS(Graph-Based Visual Saliency)显著度检测算法对图像进行显著度检测,并依据单词所处区域的显著度值为其分配权重;最后,利用显著图加权的视觉语言模型完成目标分类。在数据集Caltech-256和Pascal VOC 2007上的实验结果表明,所提方法能够较好地提高词典生成效率,提高目标表达的分辨能力,其目标分类性能优于当前主流方法。  相似文献   

4.
文中主要基于视觉词袋(BOVW, Bag-Of-Visual-Words)模型对图像进行分类处理,并对传统视觉词袋模型存在的不足进行了改进,提出了一种基于视觉词典的权重直方图来表达图像,采用优化的k-means聚类算法(k-means+)用于视觉词典的构建,代入KNN(K-Nearest-Neighbors)分类器进行分类。通过对Caltech 101和Caltech 256这两个经典数据库进行实验,实验结果表明该改进方案较传统方法提高了分类的正确率。  相似文献   

5.
为了解决飞机、直升机、导弹等3类空中目标图像的自动分类问题,提出了一种基于改进词袋模型的空中目标识别方法。首先采集3类多个型号的空中目标灰度图像并分割提取出目标,接着利用稠密采样方法进行SIFT特征提取,然后用模糊C均值聚类方法,对空中目标图像的SIFT特征进行聚类,得到大量空中目标图像的视觉单词。最后用视觉单词直方图训练支持向量机分类器,完成空中目标的自动分类。仿真实验表明,文中提出的算法能准确区分空中目标类别,性能优于传统的采用K均值聚类的词袋模型,且优于仿射矩。  相似文献   

6.
赵永威  周苑  李弼程  柯圣财 《电子学报》2016,44(9):2181-2188
传统的视觉词典模型(Bag of Visual Words Model,BoVWM)中广泛存在视觉单词同义性和歧义性问题.且视觉词典中的一些噪声单词-“视觉停用词”,也会降低视觉词典的语义分辨能力.针对这些问题,本文提出了基于近义词自适应软分配和卡方模型的图像目标分类方法.首先,该方法利用概率潜在语义分析模型(Probabilistic Latent Semantic Analysis,PLSA)分析图像中视觉单词的语义共生概率,挖掘图像隐藏的语义主题,进而得到语义主题在某一视觉单词上的概率分布;其次,引入K-L散度度量视觉单词间的语义相关性,获取语义相关的近义词;然后,结合自适应软分配策略实现SIFT特征点与若干语义相关的近义词之间的软映射;最后,利用卡方模型滤除“视觉停用词”,重构视觉词汇分布直方图,并采用SVM分类器完成目标分类.实验结果表明,新方法能够有效克服视觉单词同义性和歧义性问题带来的不利影响,增强视觉词典的语义分辨能力,较好地改善了目标分类性能.  相似文献   

7.
胡正平  涂潇蕾 《信号处理》2011,27(10):1536-1542
针对场景分类问题中,传统的“词包”模型不包含图像的上下文信息,且没有考虑图像特征间的类别差异问题,本文提出一种多方向上下文特征结合空间金字塔模型的场景分类方法。该方法首先对图像进行均匀网格分块并提取尺度不变(SIFT)特征,对每个局部图像块分别结合其周围三个方向的空间相邻区域,形成三种上下文特征;然后,将每类训练图像的上下文特征分别聚类形成视觉词汇,再将其连接形成最终的视觉词汇表,得到图像的视觉词汇直方图;最后,结合空间金字塔匹配算法形成金字塔直方图,并采用SVM分类器来进行分类。该方法将图像块在特征域的相似性同空间域的上下文关系有机地结合起来并加以类别区分,从而形成了具有更好区分力的视觉词汇表。在通用场景图像库上的实验表明,相比传统方法具有更好的分类性能。   相似文献   

8.
针对传统的视觉词典法存在的时间复杂度高,视觉单词同义性、歧义性和高维局部特征聚类不稳定问题,提出了一种基于随机化视觉词汇和聚类集成的目标分类方法。采用精确欧式位置敏感哈希(E2LSH)对训练图像库的局部特征点进行哈希映射,生成一组随机化视觉词汇;然后,聚类集成这组随机化视觉词汇,构建随机化视觉词汇集成词典(RVVAD);最后,基于该词典构建图像的视觉单词直方图并使用支持向量机(SVM)分类器完成目标分类。实验结果表明,本文方法有效增强了词典的表达能力,提高了目标分类的准确率。  相似文献   

9.
为了提高遥感图像场景分类中特征有效利用率,进而提高遥感影像分类精度,采用基于双通道深度密集特征融合的遥感影像分类方法,进行了理论分析和实验验证。首先通过构建复合密集网络模型, 分别提取图像卷积层特征和全连接层特征;然后为挖掘、利用图像深层信息,通过视觉词袋模型将提取的深层卷积层特征进行重组编码,捕获图像深层局部特征;最后采用线性加权方式将局部和全局特征融合、分类。结果表明,选用数据集UC Merced Land-Use和NWPU-RESISC45进行实验,取得的分类精度分别为93.81%和92.62%。该方法充分利用局部特征和全局特征的互补性,能实现图像深层信息的充分利用和表达。  相似文献   

10.
生成模型与判别方法相融合的图像分类方法   总被引:1,自引:1,他引:0       下载免费PDF全文
郭立君  赵杰煜  史忠植 《电子学报》2010,38(5):1141-1145
本文通过在图像局部特征基础上基于高斯混合模型建立全局视觉词汇,用局部特征相对于不同视觉单词的后验概率之和所形成的特征向量来描述图像,最终利用基于线性核的支持向量机进行图像分类.实验中比较了与其它同类方法在PASCAL VOC 2006图像集上的分类结果,验证了本文提出的分类方法及其与目标区域(前景)特征相结合在提高分类效果上的有效性.  相似文献   

11.
该文提出了一种新的基于视觉侧抑制模型和连通域统计的阈值图像分割算法.该方法模拟人眼处理图像机制,建立侧抑制模型,提取出图像中相对变化的信息,并计算变化量矩阵的直方图,然后对该直方图自下而上进行水平切割,并计算割线上的连通域数量,绘制连通域曲线图.仿真实验表明,该方法具有很好的亮度、对比度不变性和线条连通性,分割结果能更好的符合视觉感受.  相似文献   

12.
王跃  薄华 《电子设计工程》2013,21(12):124-127,131
"视觉词袋"(Bag of Visual Words,BOV)算法是一种有效的基于语义特征表达的物体识别算法。针对传统BOV模型存在的不足,综合利用SAR图像的灰度和纹理特征,提出基于感兴趣目标(Target of Interest,TOI)的"视觉词袋"算法。首先,对训练图像进行TOI选取,用灰度共生矩阵模型提取TOI的纹理特征,再结合灰度特征,组成多维特征向量集,以簇内相似度最高、数据分布密度最大为准则,生成"视觉词袋"。其次,对测试图像,依据已生成的"视觉词袋",采用支持向量机(Support Vector Machine,SVM)分类器,实现SAR图像感兴趣目标的有效分类。实验结果表明,与传统的"视觉词袋"构建算法相比,该算法在分类正确率提高的同时,能够在训练图像较少的情况下达到良好的分类效果。  相似文献   

13.
一种基于词袋模型的图像优化分类方法   总被引:1,自引:0,他引:1  
该文应用词袋模型对图像进行分类,并针对传统词袋模型存在的不足进行改进,提出了一种基于兴趣区域(Region Of Interest, ROI)提取以及金字塔匹配原理的优化方法。首先对训练图像进行ROI提取,对得到的ROI区域进行密集尺度不变特征变换(Scale-Invariant Feature Transform, SIFT)特征的抽取和描述并生成视觉词典,由此产生的视觉词典更能精确的描述图像的特征,且能够抵抗多变的位置信息及背景信息的影响。其次应用金字塔匹配原理对图像进行基于视觉词典的直方图表示,代入支持向量机(Support Vector Machine, SVM)分类器进行分类。通过对Caltech 101和Caltech 256两个数据库进行实验,结果表明该方法较传统方法提高了分类的正确率,且能够在训练图像较少的情况下达到良好的分类效果。最后通过与现有同类方法的比较验证了该方法的优越性。  相似文献   

14.
刘硕研  须德  冯松鹤  刘镝  裘正定 《电子学报》2010,38(5):1156-1161
基于视觉单词的词包模型表示(Bag-of-Words)算法是目前场景分类中的主流方法.传统的视觉单词是通过无监督聚类图像块的特征向量得到的.针对传统视觉单词生成算法中没有考虑任何语义信息的缺点,本论文提出一种基于上下文语义信息的图像块视觉单词生成算法:首先,本文中使用的上下文语义信息是视觉单词之间的语义共生概率,它是由概率潜在语义分析模型(probabilistic Latent Semantic Analysis)自动分析得到,无需任何人工标注.其次,我们引入Markov随机场理论中类别标记的伪似然度近似的策略,将图像块在特征域的相似性同空间域的上下文语义共生关系有机地结合起来,从而更准确地为图像块定义视觉单词.最后统计视觉单词的出现频率作为图像的场景表示,利用支持向量机分类器完成图像的场景分类任务.实验结果表明,本算法能有效地提高视觉单词的语义准确性,并在此基础上改善场景分类的性能.  相似文献   

15.
黄鸿  徐科杰  石光耀 《电子学报》2000,48(9):1824-1833
高分辨率遥感图像地物信息丰富,但场景构成复杂,目前基于手工设计的特征提取方法不能满足复杂场景分类的需求,而非监督特征学习方法尽管能够挖掘局部图像块的本征结构,但单一种类及尺度的特征难以有效表达实际应用中复杂遥感场景特性,导致分类性能受限.针对此问题,本文提出了一种基于多尺度多特征的遥感场景分类方法.该算法首先设计了一种改进的谱聚类非监督特征(iUFL-SC)以有效表征图像块的本征结构,然后通过密集采样提取每幅遥感场景的iUFL-SC、LBP、SIFT等三种多尺度局部图像块特征,并通过视觉词袋模型(BoVW)获得场景的中层特征表达,以实现更为准确详实的特征描述,最后基于直方图交叉核的支持向量机(HIKSVM)进行分类.在UC Merced数据集以及WHU-RS19数据集上的实验结果表明本文方法可对遥感场景进行鉴别特征提取,有效提高分类性能.  相似文献   

16.
基于视觉注意模型和进化规划的感兴趣区检测方法   总被引:7,自引:0,他引:7  
根据生物注意机制,该文提出了一种基于视觉注意模型和进化规划的感兴趣区检测方法。采用进化规划方法分割图像候选区域;区域兴趣度由视觉注意模型产生的局部显著和进化规划计算的全局显著共同度量。在视觉注意模型中,图像经过小波多尺度变换和计算中央周边差得到局部显著度。注意焦点在显著度增强因子的作用下,选取候选区域得到感兴趣区。实验结果表明,所提方法检测的感兴趣区更接近人眼的视觉注意机制,并取得了较为满意的对象检测和兴趣度量结果。  相似文献   

17.
马龙  王鲁平  李飚  沈振康 《信号处理》2010,26(12):1825-1832
提出了视觉注意驱动的基于混沌分析的运动检测方法(MDSA)。MDSA首先基于视觉注意机制提取图像的显著区域,而后对显著区域进行混沌分析以检测运动目标。算法技术路线为:首先根据场景图像提取多种视觉敏感的底层图像特征;然后根据特征综合理论将这些特征融合起来得到一幅反映场景图像中各个位置视觉显著性的显著图;而后对显著性水平最高的图像位置所在的显著区域运用混沌分析的方法进行运动检测;根据邻近优先和返回抑制原则提取下一最显著区域并进行运动检测,直至遍历所有的显著区域。本文对传统的显著区域提取方法进行了改进以减少计算量:以邻域标准差代替center-surround算子评估图像各位置的局部显著度,采用显著点聚类的方法代替尺度显著性准则提取显著区域;混沌分析首先判断各显著区域的联合直方图(JH)是否呈现混沌特征,而后依据分维数以一固定阈值对存在混沌的JH中各散点进行分类,最后将分类结果对应到显著区域从而实现运动分割。MDSA具有较好的运动分割效果和抗噪性能,对比实验和算法开销分析证明MDSA优于基于马塞克的运动检测方法(MDM)。   相似文献   

18.
传统视觉词典模型没有考虑图像的多尺度和上下文语义共生关系.本文提出一种基于多尺度上下文语义信息的图像场景分类算法.首先,对图像进行多尺度分解,从多个尺度提取不同粒度的视觉信息;其次利用基于密度的自适应选择算法确定最优概率潜在语义分析模型主题数;然后,结合Markov随机场共同挖掘图像块的上下文语义共生信息,得到图像的多尺度直方图表示;最后结合支持向量机实现场景分类.实验结果表明,本文算法能有效利用图像的多尺度和上下文语义信息,提高视觉单词的语义准确性,从而改善场景分类性能.  相似文献   

19.
提出一种新的仿生图像融合算法。首先模拟人类视觉注意特征,计算出视觉显著度图并采用视觉显著度图制导融合。使得源图像中的视觉显著区域得到突出,对于分量进行整合,然后整体融合,这样使得融合结果包含更多的可视信息,对于的异源图像融合具有良好效果。通过对比实验结果,分析结构相似度和源图像传递到融合图像的边缘信息量的参数表明算法的有效性。  相似文献   

20.
提出了一种基于视觉显著性的目标检测算法,用于对位于地面上的车辆、飞 机等地面可移动目标进行检测和定位。针对地面可移动目标在场景中较小的特点,设计了一种用于对 目标检测进行引导的基于视觉注意机制的目标显著模型。首先,提取图像目标的颜色特征、强 度特征和方向Gabor特征,并将其结合起来用于计算显著图。然后以超像素为单位对 显著值进行计算,并结合人眼视觉敏感度对不同距离的超像素之间的差异进行加权处理。实 验结果表明,本文算法可以有效地检测并定位出复杂背景中的地面可移动目标。  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司    京ICP备09084417号-23

京公网安备 11010802026262号