首页 | 官方网站   微博 | 高级检索  
相似文献
 共查询到20条相似文献,搜索用时 234 毫秒
1.
基于2DPCA的特征融合方法及其应用   总被引:1,自引:0,他引:1       下载免费PDF全文
通过对图像特征融合的一般规律的研究,提出了一种基于二维主成分分析(简称2DPCA)的图像特征融合算法。首先选取包括分形特征、多向多尺度梯度特征、局域灰度概率特征在内的目标图像的多种特征,组成特征向量,对该向量进行二维主成分分析,得到一个变换矩阵,再利用该变换矩阵和原特征向量的乘积得到新的综合特征。该综合特征即为经过融合后得到的特征。在对弱小目标匹配跟踪的仿真结果表明,该方法效果优于常规的灰度匹配和基于PCA的特征融合方法,且耗时与后者相差不大。  相似文献   

2.
张成  李娜  李元  逄玉俊 《计算机应用》2014,34(10):2895-2898
针对核主元分析(KPCA)中高斯核参数β的经验选取问题,提出了核主元分析的核参数判别选择方法。依据训练样本的类标签计算类内、类间核窗宽,在以上核窗宽中经判别选择方法确定核参数。根据判别选择核参数所确定的核矩阵,能够准确描述训练空间的结构特征。用主成分分析(PCA)对特征空间进行分解,提取主成分以实现降维和特征提取。判别核窗宽方法在分类密集区域选择较小窗宽,在分类稀疏区域选择较大窗宽。将判别核主成分分析(Dis-KPCA)应用到数据模拟实例和田纳西过程(TEP),通过与KPCA、PCA方法比较,实验结果表明,Dis-KPCA方法有效地对样本数据降维且将三个类别数据100%分开,因此,所提方法的降维精度更高。  相似文献   

3.
"高维度小样本"问题是模式识别应用中的主要障碍之一。跨越这一障碍的有效方法之一是采用参数矩阵的低秩逼近,目的是控制模型复杂度。常用的低秩逼近方法需要预先指定目标矩阵秩的大小(如主成分分析)。提出了一种新的基于稀疏约束的低秩判别模型,此模型通过对目标参数进行矩阵分解,然后分别对子成分施加低秩(稀疏)约束,从而达到低秩逼近的目的。进一步将这一思想嵌入一个双边判别模型,并用坐标下降法对目标函数进行优化,使得算法在低秩逼近的同时还有效利用了输入数据的空间特性,从而得到更好的推广性能。其有效性在一个安全生物识别应用上得到了验证。  相似文献   

4.
邢玉娟  张成文  李明 《计算机工程》2010,36(18):185-187
提出一种基于混合主成分分析(PCA)分类器和核Fisher判别(KFD)的多级说话人确认方法。利用PCA对注册说话人的特征向量进行降维,根据转换矩阵得到说话人特征向量的主成分空间和截断误差空间,结合这2个空间构造混合PCA分类器,用于快速判断最有可能的R个目标说话人,并采用KFD寻找最终目标说话人。仿真实验结果验证了该方法的有效性。  相似文献   

5.
Fisher理论和主成分相结合的多传感器信息融合方法   总被引:1,自引:0,他引:1  
万树平 《计算机应用》2009,29(3):771-773
针对具有多个特征指标的多传感器目标识别问题,提出了一种Fisher判别和主成分相结合的信息融合方法。该方法利用主成分分析法融合判别函数的个数,减少识别工作量,基于Fisher判别理论进行目标的识别。该方法特别适用于多个目标的识别,计算简单,易于计算机上实现。应用实例验证了算法的有效性。  相似文献   

6.
一种快速核特征提取方法及其应用   总被引:1,自引:1,他引:0       下载免费PDF全文
许亮  张小波 《计算机工程》2009,35(24):26-28
针对核主成分分析方法(KPCA)存在大样本集的核矩阵K计算困难问题,提出一种基于分块特征向量选择的快速核主成分分析方法。采用分块特征向量选择方法提取样本子集,用样本子集建立KPCA模型。将该方法应用于某化工过程的特征信息提取,并与全体样本的KPCA相比较。实验结果表明,两者特征提取的有效性相当,但新方法在建模和特征提取过程所耗费的时间较少。  相似文献   

7.
研究了核理论和二维矩阵表示的非线性特征提取方法。在对向量和矩阵表示最大间距准则进行分析基础上,提出了一种核二维最大间距准则的非线性判别方法。该算法是对二维最大间距准则的核化推广,不但有效利用了图像的空间结构信息,而且分别在两个特征空间提取判别特征。在ORL和Extended Yale-B人脸数据库上的实验表明了该算法的有效性。  相似文献   

8.
针对拉普拉斯特征映射(LE)只能保持局部近邻信息,对新测试点无法描述的不足,提出一种基于二维核主成分分析的拉普拉斯特征映射算法(2D-KPCA LE)。与核二维主成分分析算法(K2DPCA)不同,该算法首先对训练样本空间进行二维主成分分析(2DPCA),在保留样本空间结构信息的同时通过去相关性得到低秩的投影特征矩阵;然后用核主成分分析法(KPCA)提取全局非线性特征;由于其核函数需要大量存储空间,再用拉普拉斯特征映射(LE)进行降维。在ORL和FERET人脸数据库中的仿真实验结果表明,基于2D-KPCA的拉普拉斯特征映射算法不但可以有效处理复杂的非线性特征,又可以降低算法复杂度,提高流形学习的识别率。  相似文献   

9.
基于核主成分分析(KPCA)理论,提出一种有监督的特征提取方法.该方法在特征提取过程中充分直接利用训练核样本的类别信息,并且在计算上仍采用与KPCA方法类似的数学公式,因此被称为组合类别信息的核主成分分析(CIKPCA).另外,在分类时提出基于两种特征融合的分类策略从而进一步提高CIKPCA方法的识别率.在3个人脸库上进行实验,结果表明本文方法在识别率方面整体超过常用的KPCA方法,甚至超过核线性判别准则方法.  相似文献   

10.
郭飞  王成 《计算机工程》2010,36(24):183-185
提出一种基于拉普拉斯矩阵投影变换和核主成分分析的人脸图像识别方法。对人脸图像做拉普拉斯矩阵变换,通过核主成分分析提取特征,再利用最近邻分类器进行分类。拉普拉斯矩阵变换在保持人脸图像的局部特性的前提下,有效地降低了图像维数。在ORL数据库上的实验表明,进行拉普拉斯矩阵变换后人脸识别精度相差不大,但计算量得到减少。  相似文献   

11.
在复杂动态背景下,鲁棒主成分分析模型(RPCA)容易将背景中动态背景误判为前景运动目标,导致运动目标检测精度不高。为解决该问题,提出一种基于非凸加权核范数的时空低秩RPCA算法。使用非凸加权核范数替代传统的核范数进行低秩约束,在观测矩阵上通过拉普拉斯特征映射得到时空图拉普拉斯矩阵,将得到的时空图拉普拉斯矩阵嵌入低秩背景矩阵以保持背景对噪声和离群值的鲁棒性。实验结果表明,所提模型在复杂场景中能较准确检测出运动目标。  相似文献   

12.
非线性映射与特征提取:KMSE模型与核主分量分析技术   总被引:1,自引:0,他引:1  
分析表明,KMSE模型准则中正则项的使用相当于引入了一个与核矩阵特征值直接相关的项以度量模型的泛化性能.根据矩阵特征值知识,可知核主分量分析实际上为KMSE模型应用过程中的一个中间步骤.此时,KMSE的作用表现为将样本在特征空间中的主分量映射为指示其类别的计算输出值.KMSE模型可看作是在特征空间的主分量分析基础上进一步实施特征变换的过程.本文全面阐述了KMSE模型与KFDA,LS-SVM,核主分量分析以及Bayesian判别函数间的理论关系.此外,通过分类实验测试了KMSE、核主分量分析与本文方法的性能.  相似文献   

13.
视频人脸识别的核心问题是如何准确、高效地构建人脸模型并度量模型的相似性,为此提出一种维数约减的格拉斯曼流形鉴别分析方法以提高集合匹配的性能。首先通过子空间建模图像集合,引入投影映射将格拉斯曼流形上的基本元素表示成对应的投影矩阵。然后,为解决高维矩阵计算开销大以及在小样本条件下不能有效描述样本分布的缺陷,引入二维主成分分析方法对子空间的正交基矩阵降维。通过QR分解正则化降维后的矩阵,得到一个低维、紧致的格拉斯曼流形以获得图像集更好的表达。最后将其投影到高维核空间中进行分类。在公开的视频数据库中的实验结果证明,提出的方法在降低计算开销的同时能够获得较高的正确率,是一种有效的基于集合的对象匹配和人脸识别方法。  相似文献   

14.
邓晓刚  田学民 《控制与决策》2006,21(10):1109-1113
提出一种基于核规范变量分析(KCVA)的非线性过程故障诊断方法.该方法使用核函数完成非线性空间到高维线性空间的映射,避免了高维空间中的数据处理和非线性映射函数的使用.在线性空间中使用规范变量分析(CVA)来辨识状态空闻模型,从数据中提取状态信息.3个监测量(Tr^2,Ts^2,Q)用来进行故障检测,同时使用贡献图分离故障变量,并判断故障原因.在CSTR系统上的仿真结果表明,KCVA方法比主元分析法(PCA)和CVA方法能更灵敏地检测到故障的发生,更有效地监控过程变化.  相似文献   

15.
利用组合核函数提高核主分量分析的性能   总被引:11,自引:2,他引:11  
为了提高图像分类的识别率,在对基于核的学习算法中,核函数的构成条件以及不同核函数的特性进行分析和研究的基础上,提出了一种新的核函数——组合核函数,并将它应用于核主分量分析(KPCA)中,以便进行图像特征的提取,由于新的核函数既可以提取全局特征,又可以提取局部特征,因此,可以提高KPCA在图像特征提取中的性能。为了验证所提出核函数的有效性,首先利用新的核函数进行KPCA,以便对手写数字和脸谱等图像进行特征提取,然后利用线性支持向量机(SVM)来进行识别,实验结果显示,从识别率上看,用组合核函数所提取的特征质量比原核函数所提取的特征质量高。  相似文献   

16.
Kernel principal component analysis (KPCA) has recently proven to be a powerful dimensionality reduction tool for monitoring nonlinear processes with numerous mutually correlated measured variables. However, the performance of KPCA-based monitoring method largely depends on its kernel function which can only be empirically selected from finite candidates assuming that some faulty process samples are available in the off-line modeling phase. Moreover, KPCA works at high computational cost in the on-line monitoring phase due to its dense expansions in terms of kernel functions. To overcome these deficiencies, this paper proposes a new process monitoring technique comprising fault detection and identification based on a novel dimensionality reduction method named maximum variance unfolding projections (MVUP). MVUP firstly applies the recently proposed manifold learning method maximum variance unfolding (MVU) on training samples, which can be seen as a special variation of KPCA whose kernel matrix is automatically learned such that the underlying manifold structure of training samples is “unfolded” in the reduced space and hence the boundary of distribution region of training samples is preserved. Then MVUP uses linear regression to find the projection that best approximates the implicit mapping from training samples to their lower dimensional embedding learned by MVU. Simulation results on the benchmark Tennessee Eastman process show that MVUP-based process monitoring method is a good alternative to KPCA-based monitoring method.  相似文献   

17.
为了进一步增强鉴别通用矢量集算法的性能,提出一种核鉴别通用矢量集算法.首先利用核函数将原始样本隐式地映射到高维特征空间;然后在高维特征空间里利用再生核理论建立鉴别通用矢量集算法的等价求解模型;最后根据新的求解模型,应用二次Gram-Schmidt正交化方法求出核类内零空间中的鉴别矢量集.在人脸库上的实验结果验证了文中算法的有效性.  相似文献   

18.
Linear regression uses the least square algorithm to solve the solution of linear regression equation. Linear regression classification (LRC) shows good classification performance on face image data. However, when the axes of linear regression of class-specific samples have intersections, LRC could not well classify the samples that distribute around intersections. Moreover, the LRC could not perform well at the situation of severe lighting variations. This paper proposes a new classification method, kernel linear regression classification (KLRC), based on LRC and the kernel trick. KLRC is a nonlinear extension of LRC and can offset the drawback of LRC. KLRC implicitly maps the data into a high-dimensional kernel space by using the nonlinear mapping determined by a kernel function. Through this mapping, KLRC is able to make the data more linearly separable and can perform well for face recognition with varying lighting. For comparison, we conduct on three standard databases under some evaluation protocols. The proposed methodology not only outperforms LRC but also takes the better performance than typical kernel methods such as kernel linear discriminant analysis and kernel principal component analysis.  相似文献   

19.
基于特征样本的KPCA在故障诊断中的应用   总被引:8,自引:0,他引:8  
核函数主元分析(KPCA)可用于非线性过程监控.建立KPCA模型首先要计算核矩阵K,K的维数等于训练样本的数量,对于大样本集,计算K很困难.对此提出一种基于特征样本的KPCA(SKPCA),其基本思想是,首先利用非线性映射函数将输入空间映射到特征子空间,然后在特征子空间中计算主元.将SKPCA应用于监控Tennessee Eastman过程,并与基于全体样本的KPCA作比较,仿真结果显示,二者诊断结果基本相同,然而特征样本只是训练样本中的一小部分,因此减少了K的维数,解决了K的计算问题.  相似文献   

20.
Nonlinear kernel-based feature extraction algorithms have recently been proposed to alleviate the loss of class discrimination after feature extraction. When considering image classification, a kernel function may not be sufficiently effective if it depends only on an information resource from the Euclidean distance in the original feature space. This study presents an extended radial basis kernel function that integrates multiple discriminative information resources, including the Euclidean distance, spatial context, and class membership. The concepts related to Markov random fields (MRFs) are exploited to model the spatial context information existing in the image. Mutual closeness in class membership is defined as a similarity measure with respect to classification. Any dissimilarity from the additional information resources will improve the discrimination between two samples that are only a short Euclidean distance apart in the feature space. The proposed kernel function is used for feature extraction through linear discriminant analysis (LDA) and principal component analysis (PCA). Experiments with synthetic and natural images show the effectiveness of the proposed kernel function with application to image classification.  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司    京ICP备09084417号-23

京公网安备 11010802026262号