首页 | 官方网站   微博 | 高级检索  
相似文献
 共查询到20条相似文献,搜索用时 125 毫秒
1.
基于小波域NMF特征提取的SAR图像目标识别方法   总被引:4,自引:0,他引:4  
该文提出了一种基于小波域非负矩阵分解特征提取的合成孔径雷达图像目标识别方法。该方法对图像二维离散小波分解后提取低频子带图像,用非负矩阵分解对低频子带图像提取特征向量作为目标的特征,利用支持向量机进行分类完成目标识别。将该方法用于对MSTAR数据中三类目标识别,识别率最高可达97.51%,明显提高了目标的正确识别率。实验结果表明,该方法是一种有效的合成孔径雷达图像特征提取与目标识别方法。  相似文献   

2.
陈勇  樊强  帅锋 《电子与信息学报》2015,37(9):2055-2061
该文针对传统的图像质量评价方法无法有效模拟人类视觉系统(HVS)存在的不足,提出基于小波分析的加权稀疏保真度(Weighting Sparse Fidelity, WSF)图像评价算法。算法以模拟人类视觉系统的神经网络为切入点,对图像进行一阶小波分解得到4个不同方向的子带图像,然后将子带图像分成88大小的图像块,采用快速独立分量分析(FastICA)的方法对各个图像块进行训练并提取图像特征检测矩阵,根据特征检测矩阵计算各子带图像块的稀疏特征值并建立稀疏保真度质量评价模型。在此基础上,根据细节信息的不同对低频子带图像进行区间划分并设置视觉权重,使之更加接近人眼的主观视觉。实验中对LIVE库中所有图像进行算法验证,其结果表明,所提方法能很好地对各种失真类型的图像进行评价。基于小波分析的稀疏保真度评价算法能够有效模拟人类视觉系统的多频特性和视觉皮层感知机制,弥补现有图像质量评价方法在此方面的不足。  相似文献   

3.
该文提出一种基于局部结构张量奇异值分解的无参考型图像质量评价方法,由于图像局部结构张量能反映图像几何结构,因此利用张量特征值之间的关系来度量图像噪声与模糊水平,将两个度量结合得到图像质量的综合评价。通过分析仿真图像和实际图像的质量评价结果,该方法能同时度量因噪声和模糊造成失真后的图像质量。与图像质量评价数据库的主观评价结果比较表明,该文方法与主观评价结果相关性强,能很好地反映图像质量的视觉感知效果,并且易于实现。  相似文献   

4.
基于非负矩阵分解的SAR图像目标识别   总被引:4,自引:2,他引:2       下载免费PDF全文
龙泓琳  皮亦鸣  曹宗杰 《电子学报》2010,38(6):1425-1429
 特征提取是合成孔径雷达自动目标识别的关键技术,同时也是难点问题之一。本文提出了一种基于非负矩阵分解算法与Fisher线性判别方法的合成孔径雷达图像目标识别的方法,通过基于基向量非负加权组合的形式构建SAR目标图像,能充分利用目标的局部空间结构信息提取目标特征信息实现目标识别。首先将水平集分割预处理后的SAR目标图像样本构成初始矩阵,然后利用非负矩阵分解后得到的权向量作为目标图像的特征向量,再通过依据Fisher线性判别构成的分类器,实现对MSTAR数据中3类目标的识别,并与目前已有的几种典型方案进行对比。试验结果表明该方法是可行且有效的,并能够明显提高对目标识别的稳定性和正确率。  相似文献   

5.
特征提取是合成孔径雷达目标识别关键技术与核心任务。为了更好地提取目标特征,稀疏约束将被添加在非负矩阵分解法中,并应用于图像目标特征提取,通过利用稀疏约束的非负矩阵分解方法对sAR目标图像进行分解,构建具有稀疏性的目标特征矢量,提高了特征矢量的类内相似性与类间差异性。利用基于支持向量机的分类方法对MSTAR数据进行目标识别试验,试验结果表明,添加稀疏约束的NMF方法与PCA、ICA以及一般NMF特征提取方法相比,能够显著提高目标识别的稳定性和准确率。  相似文献   

6.
基于广义回归神经网络无参考模糊图像质量评价   总被引:1,自引:0,他引:1       下载免费PDF全文
殷莹 《激光与红外》2013,43(4):466-470
提出一种基于广义回归神经网络的无参考模糊图像质量评价方法.该方法首先通过相位一致变换生成待评测图像的相位一致图像,然后利用灰度共生矩阵计算相位一致图像的信息熵、能量、对比度、相关性和同质性5个特征,最后利用广义回归神经网络模型训练学习,预测得到无参考模糊图像质量得分.在3个公开数据库模糊图像上的实验结果表明,新方法预测得分与主观得分有较好的一致性,更加符合人类视觉特性.  相似文献   

7.
作为客观评价的研究基础,人眼主观评价是比较不同融合算法图像优劣的最直接有效的方法。通过开展主观评价实验,基于单因变量模型分析清晰度、颜色协调性等影响因素对彩色融合图像质量的影响程度,进而预测视觉任务下的融合图像总体质量,是目前流行的彩色融合图像质量主观评价研究方法。针对基于单因变量模型的研究方法易割裂“探测”与“感知”在探测识别过程中的联系的问题,本文以村庄环境下的探测识别视觉任务为例,选取“感知”和“探测”2个指标共同作为彩色融合图像质量的表现指标,组织15人对由8个场景、8种典型融合算法生成的42幅彩色融合图像的质量进行了主观评价。采用双因变量的结构方程模型(Structural Equation Model,SEM)分析了筛选后的评价结果,建立了彩色融合图像质量的预测模型并验证了模型的正确性。结果表明,当同时表现“感知”和“探测”2种性能时,村庄环境、探测识别视觉任务下,彩色融合图像的质量可由“目标背景差异”、“场景清晰度”和“颜色协调性”3个因素预测,且“感知”和“探测”2种性能是均衡的。  相似文献   

8.
改进投影梯度非负矩阵分解的单训练样本特征提取研究   总被引:2,自引:0,他引:2  
人脸识别是当前人工智能和模式识别的研究热点。非负矩阵分解(NMF)能够反映样本的局部的内在的联系,可用于单样本特征提取,但时间复杂度较高。投影梯度(Projected Gradient,PG)优化方法大幅降低了NMF约束优化迭代问题的时间复杂度,但是单训练样本存在对本类信息量描述不足的缺点。为此,该文提出了一种基于改进的投影梯度非负矩阵分解 (Improved Projected Gradient Non-negative Matrix Factorization,IPGNMF) 的单训练样本特征提取方法。在进行PGNMF算子之前,先将训练样本作Gabor分解,分解后的Gabor子图像在各个方向上可以更加丰富的描述样本特征,最后将各个Gabor子图像的PGNMF特征进行融合,作为最终的识别特征。在对人脸库ORL,YEL与FERET的识别实验中,与经典的特征提取方法比较,证明了可以有效地解决单训练样本人脸识别的问题。  相似文献   

9.
路文  高新波  王体胜 《电子学报》2008,36(2):303-308
部分参考型图像质量评价的性能依赖于图像的特征提取和稀疏表示.WBCT(Wavelet-based Contourlet Transform)是一种无冗余度的图像稀疏表示方法,能有效地反映图像的视觉感知特性,可以用来捕捉由于图像失真而引起的视觉感知的变化.为此,结合部分参考型图像质量评价模型和WBCT,提出了一种自然图像质量客观评价方法.实验结果表明,利用该方法所得到的图像质量客观评价结果与主观评价结果之间具有很好的一致性,能准确地反映人眼对图像质量的主观感受.  相似文献   

10.
鉴于生物视觉特征对于图像的良好表征能力,提出了一种基于生物视觉特征的无参考型图像质量评价方法。对生物视觉ST模型进行了研究和分析,完成了对图像的稀疏化表示;利用最小二乘支持向量机回归方法训练生物视觉特征到图像质量的映射关系,获得能够预测图像质量的回归器;通过学习的回归器完成了对图像质量的评价。基于LIVE图像库的实验结果表明,该方法对于特定失真和交叉失真的预测误差分别为2%和5%左右,并且与目前技术条件下的质量评价方法相比具有很好的精确性和单调性。  相似文献   

11.
设计一个稳健的自动图像标注系统的重要环节是提取能够有效描述图像语义的视觉特征。由于颜色、纹理和形状等异构视觉特征在表示特定图像语义时所起作用的重要程度不同且同一类特征之间具有一定的相关性,该文提出了一种图正则化约束下的非负组稀疏(Graph Regularized Non-negative Group Sparsity, GRNGS)模型来实现图像标注,并通过一种非负矩阵分解方法来计算其模型参数。该模型结合了图正则化与l2,1-范数约束,使得标注过程中所选的组群特征能体现一定的视觉相似性和语义相关性。在Corel5K和ESP Game等图像数据集上的实验结果表明:相较于一些最新的图像标注模型,GRNGS模型的鲁棒性更强,标注结果更精确。  相似文献   

12.
13.
With the emerging development of three-dimensional (3D) related technologies, 3D visual saliency modeling is becoming particularly important and challenging. This paper presents a new depth perception and visual comfort guided saliency computational model for stereoscopic 3D images. The prominent advantage of the proposed model is that we incorporate the influence of depth perception and visual comfort on 3D visual saliency computation. The proposed saliency model is composed of three components: 2D image saliency, depth saliency and visual comfort based saliency. In the model, color saliency, texture saliency and spatial compactness are computed respectively and fused to derive 2D image saliency. Global disparity contrast is considered to compute depth saliency. Particularly, we train a visual comfort prediction function to distinguish stereoscopic image pair as high comfortable stereo viewing (HCSV) or low comfortable stereo viewing (LCSV), and devise different computational rules to generate a visual comfort based saliency map. The final 3D saliency map is obtained by using a linear combination and enhanced by a “saliency-center bias” model. Experimental results show that the proposed 3D saliency model outperforms the state-of-the-art models on predicting human eye fixations and visual comfort assessment.  相似文献   

14.
现有的大部分基于扩散理论的显著性物体检测方法只用了图像的底层特征来构造图和扩散矩阵,并且忽视了显著性物体在图像边缘的可能性。针对此,该文提出一种基于图像的多层特征的扩散方法进行显著性物体检测。首先,采用由背景先验、颜色先验、位置先验组成的高层先验方法选取种子节点。其次,将选取的种子节点的显著性信息通过由图像的底层特征构建的扩散矩阵传播到每个节点得到初始显著图,并将其作为图像的中层特征。然后结合图像的高层特征分别构建扩散矩阵,再次运用扩散方法分别获得中层显著图、高层显著图。最后,非线性融合中层显著图和高层显著图得到最终显著图。该算法在3个数据集MSRA10K,DUT-OMRON和ECSSD上,用3种量化评价指标与现有4种流行算法进行实验结果对比,均取得最好的效果。  相似文献   

15.
Color is the most informative low-level feature and might convey tremendous saliency information of a given image. Unfortunately, color feature is seldom fully exploited in the previous saliency models. Motivated by the three basic disciplines of a salient object which are respectively center distribution prior, high color contrast to surroundings and compact color distribution, in this paper, we design a comprehensive salient object detection system which takes the advantages of color contrast together with color distribution and outputs high quality saliency maps. The overall procedure flow of our unified framework contains superpixel pre-segmentation, color contrast and color distribution computation, combination, and final refinement.In color contrast saliency computation, we calculate center-surrounded color contrast and then employ the distribution prior in order to select correct color components. A global saliency smoothing procedure that is based on superpixel regions is introduced as well. This processing step preferably alleviates the saliency distortion problem, leading to the entire object being highlighted uniformly. Finally, a saliency refinement approach is adopted to eliminate artifacts and recover unconnected parts within the combined saliency maps.In visual comparison, our method produces higher quality saliency maps which stress out the total object meanwhile suppress background clutter. Both qualitative and quantitative experiments show our approach outperforms 8 state-of-the-art methods, achieving the highest precision rate 96% (3% improvement from the current highest), when evaluated via one of the most popular data sets. Excellent content-aware image resizing also could be achieved using our saliency maps.  相似文献   

16.
A feature fusion approach is presented to extract the region of interest (ROI) from the stereoscopic video. [0]Based on human vision system (HVS), the depth feature, the color feature and the motion feature are chosen as vision features. [0]The algorithm is shown as follows. Firstly, color saliency is calculated on superpixel scale. Color space distribution of the superpixel and the color difference between the superpixel and background pixel are used to describe color saliency and color salient region is detected. Then, the classic visual background extractor (Vibe) algorithm is improved from the update interval and update region of background model. The update interval is adjusted according to the image content. The update region is determined through non-obvious movement region and background point detection. So the motion region of stereoscopic video is extracted using improved Vibe algorithm. The depth salient region is detected by selecting the region with the highest gray value. Finally, three regions are fused into final ROI. Experiment results show that the proposed method can extract ROI from stereoscopic video effectively. In order to further verify the proposed method, stereoscopic video coding application is also carried out on the joint model (JM) encoder with different bit allocation in ROI and the background region.  相似文献   

17.
Salient object detection is essential for applications, such as image classification, object recognition and image retrieval. In this paper, we design a new approach to detect salient objects from an image by describing what does salient objects and backgrounds look like using statistic of the image. First, we introduce a saliency driven clustering method to reveal distinct visual patterns of images by generating image clusters. The Gaussian Mixture Model (GMM) is applied to represent the statistic of each cluster, which is used to compute the color spatial distribution. Second, three kinds of regional saliency measures, i.e, regional color contrast saliency, regional boundary prior saliency and regional color spatial distribution, are computed and combined. Then, a region selection strategy integrating color contrast prior, boundary prior and visual patterns information of images is presented. The pixels of an image are divided into either potential salient region or background region adaptively based on the combined regional saliency measures. Finally, a Bayesian framework is employed to compute the saliency value for each pixel taking the regional saliency values as priority. Our approach has been extensively evaluated on two popular image databases. Experimental results show that our approach can achieve considerable performance improvement in terms of commonly adopted performance measures in salient object detection.  相似文献   

18.
针对当前基于流形排序的显著性检测算法缺乏子空间信息的挖掘和节点间传播不准确的问题,该文提出一种基于低秩背景约束与多线索传播的图像显著性检测算法。融合颜色、位置和边界连通度等初级视觉先验形成背景高级先验,约束图像特征矩阵的分解,强化低秩矩阵与稀疏矩阵的差异,充分描述子空间结构信息,从而有效地将前景与背景分离;引入稀疏感知和局部平滑等线索改进传播矩阵的构建,增强颜色特征出现概率低的节点的传播能力,加强局部区域内节点的关联性,准确凸显节点的属性,得到紧密且连续的显著区域。在3个基准数据集上的实验结果与图像检索领域的应用证明了该文算法的有效性和鲁棒性。  相似文献   

19.
针对当前基于流形排序的显著性检测算法缺乏子空间信息的挖掘和节点间传播不准确的问题,该文提出一种基于低秩背景约束与多线索传播的图像显著性检测算法.融合颜色、位置和边界连通度等初级视觉先验形成背景高级先验,约束图像特征矩阵的分解,强化低秩矩阵与稀疏矩阵的差异,充分描述子空间结构信息,从而有效地将前景与背景分离;引入稀疏感知和局部平滑等线索改进传播矩阵的构建,增强颜色特征出现概率低的节点的传播能力,加强局部区域内节点的关联性,准确凸显节点的属性,得到紧密且连续的显著区域.在3个基准数据集上的实验结果与图像检索领域的应用证明了该文算法的有效性和鲁棒性.  相似文献   

20.
为了更加有效地预测图像中吸引视觉注意的关键区域,该文提出一种融合相位一致性与2维主成分分析(2DPCA)的显著性方法。该方法不同于传统的利用相位谱的方式,而是提出采用相位一致性(PC)获取图像中重要的特征点和边缘信息,经快速漂移超像素优化后,融合局部和全局颜色对比度,生成低层特征显著图。接着提出利用2DPCA提取图像块的主成分后,计算主成分空间中图像块的局部和全局可区分性,得到模式显著图。最后,通过空间离散度度量分配合适的权重,使两者融合,提取显著性区域。在两种人眼跟踪数据库上与5种经典算法的实验对比结果表明,该算法能更加准确地预测人眼视觉关注点。  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司    京ICP备09084417号-23

京公网安备 11010802026262号