首页 | 官方网站   微博 | 高级检索  
相似文献
 共查询到20条相似文献,搜索用时 187 毫秒
1.
为了解决SAR图像基于人类视觉注意模型舰船检测算法中需要人工确定经验阈值的问题,提出一种自适应阈值的视觉注意模型SAR舰船检测算法。引入最大类间方差(OTSU)法确定自适应阈值进行图像初分割,再应用视觉注意模型得到视觉显著图,最终根据显著图的统计特性进行自适应阈值分割检测出舰船目标。该算法相对于已有的视觉注意模型舰船检测算法自动化程度更高,与视觉注意模型舰船检测算法以及目前普遍使用的双参数CFAR、K-CFAR、KSW双阈值算法同时处理3种星载SAR数据——ENVISAT ASAR(25 m)、Sentinel-1(10m)和Cosmo-SkyMed(3m),进行对比分析实验,实验结果证明该算法简单、准确、高效。  相似文献   

2.
史静  朱虹  王栋  杜森 《中国图象图形学报》2017,22(12):1750-1757
目的 目前对于场景分类问题,由于其内部结构的多样性和复杂性,以及光照和拍摄角度的影响,现有算法大多通过单纯提取特征进行建模,并没有考虑场景图像中事物之间的相互关联,因此,仍然不能达到一个理想的分类效果。本文针对场景分类中存在的重点和难点问题,充分考虑人眼的视觉感知特性,利用显著性检测,并结合传统的视觉词袋模型,提出了一种融合视觉感知特性的场景分类算法。方法 首先,对图像进行多尺度分解,并提取各尺度下的图像特征,接着,检测各尺度下图像的视觉显著区域,最后,将显著区域信息与多尺度特征进行有机融合,构成多尺度融合窗选加权SIFT特征(WSSIFT),对场景进行分类。结果 为了验证本文算法的有效性,该算法在3个标准数据集SE、LS以及IS上进行测试,并与不同方法进行比较,分类准确率提高了约3%~17%。结论 本文提出的融合视觉感知特性的场景分类算法,有效地改善了单纯特征描述的局限性,并提高了图像的整体表达。实验结果表明,该算法对于多个数据集都具有较好的分类效果,适用于场景分析、理解、分类等机器视觉领域。  相似文献   

3.
航拍图像与普通图像相比,具有以下特殊性:分辨率较低,细节不充分;检测目标体积小,难检测;背景的纹理干扰较大。这些特殊性使得直接应用经典的显著性检测方法在航拍图像上不能取得理想的效果。针对这个问题,根据人类视觉系统的特点,提出了一种通过特征显著性分析确定目标候选区域的车辆检测算法。首先,用车辆底层边条信息对输入图像卷积,得到特征响应图。然后计算不同尺度下的特征响应图的谱残差,得到显著性响应图。最后,通过融合多尺度下的显著性响应图,并进行时域和空域增强处理,得到最终的显著性地图。对真实场景下的图像进行仿真实验,结果表明该算法能取得较好的检测效果。  相似文献   

4.
多聚焦图像存在聚焦和离焦区。通常聚焦区吸引人的注意力,具有突出的视觉显著性。提出一种模拟人类视觉机制的彩色图像融合方法。利用超复数傅里叶变换改进传统显著性检测算法,直接检测彩色图像显著度;模拟人类视觉的注视眼动机制对图像尺度稍微扰动,并对不同尺度下获得的图像显著度进行累加;选择累计显著度最大的源图像像素构建融合图像,并采用颜色相似性准则处理边界带像素。相关仿真实验表明,超复数傅里叶变换充分利用了源图像的颜色信息,累加显著度能提高峰值信噪比并减少均方根误差。实验结果表明该方法可得到超过36 dB的峰值信噪比和小于个位数的均方误差,在图像融合中可得到相对好的主观视觉效果。  相似文献   

5.
视觉注意机制是人类与生俱来的特有属性.在视觉注意机制的协助下,人类视觉系统可以有选择性地针对视觉信息进行处理并有效解决有限信息处理资源与海量视觉信息之间的矛盾.与现有基于计算机视觉机制的图像分割方法比较,本文提出改进视觉显著性度量方法生成的系统显著图能够更加准确表现原始图像中各个像素点的显著性值,根据系统显著图进行阈值分割便可以对前景目标和背景区域进行区分,不需要加入其他方法,这样既可以降低运算时间复杂度,又可以使得图像分割结果更符合人类视觉特点.本文算法对于包含前景目标可得到优良的图像分割结果,但本方法对于背景较复杂同时前景目标模糊的原始图像的图像分割效果不够理想.  相似文献   

6.
人类的视觉注意机制是人类大脑感知事物的最直接的功能。提出了一种基于视皮层视觉机制的生物激励注意模型。利用HMAX(hierarchical maximization)模型的四层机制中的C1细胞单元图,构造独立成分分析(independent component analysis,ICA)滤波器组,进一步利用对尺度、平移等均具有不变性的C2细胞特征,以及香农熵理论,共同构造用于视觉显著性区域检测的测度。在心理学实验的自然场景图像以及心理学刺激模式上的结果表明,该方法与传统方法相比,更符合人眼的感知特性,从而进一步验证了该方法的有效性和准确性。  相似文献   

7.
《机器人》2017,(5)
针对移动机器人面对的真实3维场景数据,提出一种基于频域和空域混合分析的视觉显著性检测方法.首先设计多通道特征融合算法融合RGB-D数据中包含的颜色和深度信息,然后通过超复数傅里叶变换在频域计算得到多尺度视觉显著图,接着利用非均匀超像素分割算法对得到的显著图进行平滑处理,从而消除离散背景噪声干扰,改善频域检测结果.最后,采用元胞自动机对多尺度视觉显著图进行有效融合,提取最终的显著性区域.在公开数据库上进行了多组实验,验证了所提出算法在移动机器人面对的真实复杂场景数据中的有效性.  相似文献   

8.
由于视觉注意预测能够快速、准确地定位图像中的显著区域,因此将视觉注意中的频域信息融入显著性目标检测中,从而有效地在复杂场景中检测显著性目标。首先,采用改进的频域检测方法对图像进行视觉注意预测,将该频域信息融入Focusness特征中计算得到频域信息聚焦特征,并将此特征与颜色特征进行融合得到前景显著图。然后,对RBD背景进行优化,得到背景显著图。最后,对前景显著图、背景显著图进行融合。在ESSCD,DUT-OMON两个具有挑战性的数据集上进行了大量实验,并采用PR_Curve,F-Measure,MAE对结果进行了评估,结果表明,所提出的方法要优于6种对比方法(HFT,PQFT,HDCT,UFO,DSR和RBD),并且能够处理复杂场景的图像。  相似文献   

9.
在复杂的自然场景中将轮廓准确地提取出来一直是一个难题,传统的基于梯度图像分割的方法在性能提高上遇到瓶颈。分析了梯度图像中轮廓与纹理的视觉特性,说明了显著性检测的必要性;引入视觉注意机制,利用残余谱得到梯度显著图,突出了轮廓的梯度响应的同时抑制了纹理的梯度响应,证明了显著性检测的可行性;详细介绍了算法实现流程。通过与其他三种算法进行对比,证明基于梯度显著图进行边缘分割和跟踪,有效地抑制了纹理边缘,轮廓提取性能得到明显提高;通过调整参数设置,验证该算法对参数变化具有一定程度的鲁棒性。  相似文献   

10.
一种动态场景中的视觉注意区域检测方法   总被引:1,自引:0,他引:1  
利用心理学中有关视觉注意的研究成果,提出一种新的动态场景中的视觉注意区域检测算法.该算法利用视觉对场景的感知的特点,以特征点轨迹作为运动特征,计算特征点运动的显著性,并用运动显著的特征点作为"种子",结合空间分割方法产生运动显著图.为了兼顾静态场景,则利用颜色和亮度作为特征,以center-surround反差模型获得图像的静态显著图. 最后提出一种基于运动优先思想的方法将运动和空间显著图进行动态融合,生成视觉注意区域.与以往方法相比,该方法生成的视觉注意区域较为完整,并且具有更好的抗噪性.实验结果证明了该方法的有效性和稳定性.  相似文献   

11.
基于视觉注意机制的彩色图像显著性区域提取   总被引:2,自引:0,他引:2  
孟琭 《计算机应用研究》2013,30(10):3159-3161
图像显著性区域提取是计算机视觉处理的重要步骤。结合人类视觉心理、生理模型, 提出一种基于视觉注意机制的彩色图像显著性区域提取模型。通过改进的分水岭算法对彩色图像进行预分割, 从而将原图像分成若干子区域, 在此基础上运用提出的区域化空间注意力模型对各个子区域进行显著图计算, 得到最终的显著性区域提取结果。实验结果表明, 提出的显著性区域提取算法可以很好地从彩色图像中得到与视觉注意机制相一致的结果, 且满足实时性要求, 与传统方法相比, 算法提取的区域更完整、更准确。  相似文献   

12.
为解决突变运动下的目标跟踪问题,提出了一种基于视觉显著性的均值漂移跟踪算法,将视觉注意机制运用到均值漂移跟踪框架中,利用时空显著性算法对视频序列进行检测,生成视觉显著图,从视觉显著图对应的显著性区域中建立目标的颜色特征表示模型来实现运动目标跟踪.实验结果表明:该算法在摄像机摇晃等动态场景下可以较准确检测出时空均显著的目标,有效克服了在运动目标发生丢失和遮挡等情况下跟踪不稳定的问题,具有较强的鲁棒性,从而实现复杂场景下目标较准确的跟踪.  相似文献   

13.
There are many “machine vision” models of the visual saliency mechanism, which controls the process of selecting and allocating attention to the most “prominent” locations in the scene and helps humans interact with the visual environment efficiently (Itti and C. Koch, 2001; Gao et al., 2000). It is important to know which models perform the best in mimicking the saliency mechanism of the human visual system. There are several metrics to compare saliency models; however, results from different metrics vary widely in evaluating models. In this paper, a procedure is proposed for evaluating metrics for comparing saliency maps using a database of human fixations on approximately 1000 images. This procedure is then employed to identify the best metric. This best metric is then used to evaluate ten published bottom-up saliency models. An optimized level of the blurriness and center-bias is found for each visual saliency model. Performance of the models is also analyzed on a dataset of 54 synthetic images.  相似文献   

14.
目的 显著性检测已成为图像处理过程中的一个重要步骤,已被应用到许多计算机视觉任务中。虽然显著性检测已被研究多年并取得了较大的进展,但仍存在一些不足,例如在复杂场景中的检测不准确或检测结果夹带着背景噪声等。因此,针对已有图像显著性检测方法存在的不能有效抑制背景区域,或不能清晰突显出完整的目标区域的缺点,提出一种结合背景先验和前景先验信息的图像显著性检测算法。方法 首先选取图像的边界超像素作为背景区域,从而根据每个区域与背景区域的差异度来建立背景先验显著图;然后通过计算特征点来构建一个能够粗略包围目标区域的凸包,并结合背景先验显著图来选取前景目标区域,从而根据每个区域与前景目标区域的相似度来生成前景先验显著图;最后融合这两个显著图并对其结果进一步优化得到更加平滑和准确的显著图。结果 利用本文算法对MSRA10K数据库内图像进行显著性检测,并与主流的算法进行对比。本文算法的检测效果更接近人工标注,而且精确率和效率都优于所对比的算法,其中平均精确率为87.9%,平均召回率为79.17%,F值为0.852 6,平均绝对误差(MAE)值为0.113,以及平均运行时间为0.723 s。结论 本文提出了一种结合两类先验信息的显著性检测算法,检测结果既能够有效地抑制背景区域,又能清晰地突显目标区域,从而提高了检测的准确性。  相似文献   

15.
为了方便而快速地在图像中标出目标,提出了一种基于视觉注意的小目标检测方法。该方法对Itti通用视觉注意计算模型作了改进,将目标检测过程分为亮目标检测和暗目标检测。其中亮目标检测采用了简化的Itti模型,暗目标检测主要采用侧抑制网络模型,将亮目标检测与暗目标检测各自生成的显著图合成得到最终的显著图。通过设定一阈值得到图像的预注意区域,采用模糊C-均值算法进行图像分割,以便相对完整地标出每个目标。结果表明,算法能够有效地检测待检测目标。  相似文献   

16.
戴花  王建平 《计算机应用》2012,32(8):2288-2290
图像处理技术依赖于高质量的视觉显著图才能获得较好的处理结果,现有的视觉显著性检测方法通常只能检测得到粗糙的视觉显著性属性图,严重影响了图像处理的最终效果。为此,提出一种采用贝叶斯理论和统计学习的视觉显著性检测方法来检测图像的视觉显著性属性。该方法基于贝叶斯理论的静态图像的自上而下的显著性和整体显著性,将自上而下的知识和由下向上的显著性进行结合针对特征整合问题,利用线性模型的加权线性组合方法和正规化神经网络相结合的非线性加权方法来研究与所有因素相关的权值参数。根据自下而上的视觉显著性模型在两个标准数据集中采用ROC曲线来进行定量评价,结果表明非线性组合效果优于线性组合。  相似文献   

17.
目的 立体视频能提供身临其境的逼真感而越来越受到人们的喜爱,而视觉显著性检测可以自动预测、定位和挖掘重要视觉信息,可以帮助机器对海量多媒体信息进行有效筛选。为了提高立体视频中的显著区域检测性能,提出了一种融合双目多维感知特性的立体视频显著性检测模型。方法 从立体视频的空域、深度以及时域3个不同维度出发进行显著性计算。首先,基于图像的空间特征利用贝叶斯模型计算2D图像显著图;接着,根据双目感知特征获取立体视频图像的深度显著图;然后,利用Lucas-Kanade光流法计算帧间局部区域的运动特征,获取时域显著图;最后,将3种不同维度的显著图采用一种基于全局-区域差异度大小的融合方法进行相互融合,获得最终的立体视频显著区域分布模型。结果 在不同类型的立体视频序列中的实验结果表明,本文模型获得了80%的准确率和72%的召回率,且保持了相对较低的计算复杂度,优于现有的显著性检测模型。结论 本文的显著性检测模型能有效地获取立体视频中的显著区域,可应用于立体视频/图像编码、立体视频/图像质量评价等领域。  相似文献   

18.
目的 针对图像的显著区域检测问题,提出一种利用背景先验知识和多尺度分析的显著性检测算法。方法 首先,将原始图像在不同尺度下分解为超像素。然后,在每种尺度下根据各超像素之间的特征差异估计背景,提取背景区域,获取背景先验知识。根据背景先验计算各超像素的显著性,得到显著图。最后,将不同超像素尺度下的显著图进行融合得到最终显著图。结果 在公开的MASR-1000、ECSSD、SED和SOD数据集上进行实验验证,并和目前流行的算法进行实验对比。本文算法的准确率、召回率、F-Measure以及平均绝对误差均在4个数据集上的平均值分别为0.718 9、0.699 9、0.708 6和0.042 3,均优于当前流行的算法。结论 提出了一种新的显著性检测算法,对原始图像进行多尺度分析,利用背景先验计算视觉显著性。实验结果表明,本文算法能够完整、准确地检测显著性区域,适用于自然图像的显著性目标检测或目标分割应用。  相似文献   

19.
目的 动态场景图像中所存在的静态目标、背景纹理等静态噪声,以及背景运动、相机抖动等动态噪声,极易导致运动目标检测误检或漏检。针对这一问题,本文提出了一种基于运动显著性概率图的目标检测方法。方法 该方法首先在时间尺度上构建包含短期运动信息和长期运动信息的构建时间序列组;然后利用TFT(temporal Fourier transform)方法计算显著性值。基于此,得到条件运动显著性概率图。接着在全概率公式指导下得到运动显著性概率图,确定前景候选像素,突出运动目标的显著性,而对背景的显著性进行抑制;最后以此为基础,对像素的空间信息进行建模,进而检测运动目标。结果 对提出的方法在3种典型的动态场景中与9种运动目标检测方法进行了性能评价。3种典型的动态场景包括静态噪声场景、动态噪声场景及动静态噪声场景。实验结果表明,在静态噪声场景中,Fscore提高到92.91%,准确率提高到96.47%,假正率低至0.02%。在动态噪声场景中,Fscore提高至95.52%,准确率提高到95.15%,假正率低至0.002%。而在这两种场景中,召回率指标没有取得最好的性能的原因是,本文所提方法在较好的包络目标区域的同时,在部分情况下易将部分目标区域误判为背景区域的,尤其当目标区域较小时,这种误判的比率更为明显。但是,误判的比率一直维持在较低的水平,且召回率的指标也保持在较高的值,完全能够满足于实际应用的需要,不能抵消整体性能的显著提高。另外,在动静态噪声场景中,4种指标均取得了最优的性能。因此,本文方法能有效地消除静态目标干扰,抑制背景运动和相机抖动等动态噪声,准确地检测出视频序列中的运动目标。结论 本文方法可以更好地抑制静态背景噪声和由背景变化(水波荡漾、相机抖动等)引起的动态噪声,在复杂的噪声背景下准确地检测出运动目标,提高了运动目标检测的鲁棒性和普适性。  相似文献   

20.
基于视觉显著性特征的快速场景配准方法   总被引:4,自引:0,他引:4       下载免费PDF全文
视觉显著性特征是模拟生物视觉注意力选择机制的一种具有较好的鲁棒性与不变性的视觉特征。基于视觉显著性特征提出了一种快速的场景配准方法。该方法采用调幅傅里叶变换构造视觉显著性映射;通过对显著特征局部极值特性以及信息丰度的分析,实现显著点的粗定位、预选择与可信度排序;通过图像形态学操作,实现了显著场景区域的生长与合并。在此基础上,提出了SSIFT(saliency scale invariant feature transform)算法,从而减少了场景分类算法的计算量。利用本文方法对美国南加州大学的场景数据库进行测试,实验结果表明这种方法提取的SSIFT特征对于图像的平移、旋转以及光照等变化具有良好的不变性;与经典SIFT算法相比,该方法在计算速度上具有明显的优势,并在识别率上也略优于SIFT算法。  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司    京ICP备09084417号-23

京公网安备 11010802026262号