首页 | 官方网站   微博 | 高级检索  
相似文献
 共查询到17条相似文献,搜索用时 156 毫秒
1.
针对基于功能核磁共振重构的脑网络状态观测矩阵维数过高和无特征的特点,对其降维方法展开研究,给出了基于t-SNE的脑网络状态观测矩阵降维算法,并且利用Python实现了降维及可视化平台。实验结果表明,与目前主流的其他降维算法相比较,使用该方法得到的脑网络状态观测矩阵低维空间的映射点有明显的聚类表现,并且在多个样本上的降维结果显现出一定的规律性,从而证明了该算法的有效性和普适性。  相似文献   

2.
针对目前数据降维算法受高维空间样本分布影响效果不佳的问题,提出了一种自适应加权的t分布随机近邻嵌入(t-SNE)算法。该算法对两样本点在高维空间中的欧氏距离进行归一化后按距离的不同分布状况进行分组分析,分别按照近距离、较近距离和远距离三种情况在计算高维空间内样本点间的相似概率时进行自适应加权处理,以加权相对距离代替欧氏绝对距离,从而更真实地度量每一组不同样本在高维空间的相似程度。在高维脑网络状态观测矩阵中的降维实验结果表明,自适应加权t-SNE的降维聚类可视化效果优于其它降维算法,与传统t-SNE算法相比,聚类指标值DBI值平均降低了28.39%,DI值平均提高了161.84%,并且有效地消除了分散、交叉和散点等问题。  相似文献   

3.
针对人脑网络状态观测矩阵高维无特征的特点,给出了一种基于深度自动编码器(DAE)的降维算法.利用深度学习网络,将高维的人脑网络空间表达映射到低维的本质特征空间中,为进一步提炼脑网络的动态性能提供了基础.实验结果证明:应用该方法可以达到有效的降维效果,且降维后脑网络状态通过自组织特征映射聚类具有一定的规律性,从而为脑网络的动态特性研究提供了基础.  相似文献   

4.
针对情绪脑电信号提出一种网络图特征学习与情绪识别算法。首先,利用情绪脑电数据构建对应的情绪脑电网络;其次,在由情绪脑电网络尺度定义的高维空间构建脑电网络样本间的局部邻接关系图以挖掘样本集的分布特性,进而得到样本集的图拉普拉斯矩阵;在此基础上,进一步利用谱图理论对情绪脑电网络的最优低维空间映射进行求解,在保留原始样本局部邻接关系的前提下实现对情绪脑电网络的降维与重新表达,并将每个情绪脑电网络样本表示成1组脑电网络特征集;最后利用提取到的情绪脑电网络特征集,结合支持向量机分类学习算法,针对情绪识别任务进行识别模型的训练和学习,实现对情绪状态的准确解码与识别。在国际公开情绪脑电数据集的实验结果表明:相较于传统情绪识别算法,本文所提方法能有效提升情绪识别准确率,在基于公开数据集的多类情绪识别任务中分别达到91.85%(SEED数据集, 3类)、79.36%(MAHNOB-HCI数据集,3类)和79%(DEAP数据集,4类)的稳健识别效果。  相似文献   

5.
为探索高维数据本质结构和低维表示,并避免一般流形学习中测试数据不能显式降维的不足,提出基于局部和全局映射函数的流形降维空间球形覆盖分类算法。该算法首先抽象融合局部和全局信息映射模型,分别优化局部拉普拉斯矩阵和全局拉普拉斯矩阵,通过对局部和全局拉普拉斯矩阵进行特征值分解,得到训练样本的低维表示。然后借助核映射获取测试样本的低维表示。最后在低维空间建立球形覆盖分类模型,实现目标分类。在MNIST手写体数据集、YaleB和AR人脸数据集上的实验表明文中算法的有效性,证明其在实际应用领域具有一定价值。  相似文献   

6.
鉴于情感脑电蕴含丰富的空间模式特征,提出一种基于二维空间域表征可视化的情感识别方法。首先,提取多通道脑电Gamma频段的微分熵(Differential Entropy,DE)特征并根据导联位置映射至9×9的二维空间进行拓扑重构,使用三次插值方法进一步提高空间域特征图的分辨率;然后,针对性地设计了一种深度残差网络(Residual Network,ResNet)模型作为情感脑电解码器对情感脑电信号(Electroencephalogram,EEG)进行深层抽象特征的自动提取和端到端分类;最后,通过梯度加权类激活映射(Gradient-weighted Class Activation Mapping,Grad-CAM)方法对输入特征图进行可解释性分析,依据热力图分布定位对特定情感状态识别具有较大贡献的空间脑区。在SEED数据集上进行了相关情感识别实验,三种情感类别分类平均准确率为94.88%,达到了较先进的性能。  相似文献   

7.
针对传统的t分布随机近邻嵌入(t-SNE)算法只能处理单一属型数据,不能很好地处理混合属性数据的问题,提出一种扩展的t-SNE降维可视化算法E-t-SNE,用于处理混合属性数据。该方法引入信息熵概念来构建分类属性数据的距离矩阵,采用分类属性数据距离与数值属性数据欧式距离相结合的方式构建混合属性数据距离矩阵,将新的距离矩阵输入t-SNE算法对数据进行降维并在二维空间可视化展示。此外,为验证算法有效性,采用[k]近邻[(kNN)]算法对混合数据降维后的效果进行评价。通过在UCI数据集上的实验表明,该方法在处理混合属性数据方面,不仅具有较好的可视化能力,而且能有效地对不同类别的数据进行降维分簇,提升后续分类器的分类准确率。  相似文献   

8.
张成  刘亚东  李元 《计算机应用》2015,35(2):470-475
针对高维数据难以被人们直观理解,且难以被机器学习和数据挖据算法有效地处理的问题,提出一种新的非线性降维方法--判别式扩散映射分析(DDMA)。该方法将判别核方案应用到扩散映射框架中,依据样本类别标签在类内窗宽和类间窗宽中判别选取高斯核窗宽,使核函数能够有效提取数据的关联特性,准确描述数据空间的结构特征。通过在人工合成Swiss-roll测试和青霉素发酵过程中的仿真应用,与主成分分析(PCA)、线性判别分析(LDA)、核主成分分析(KPCA)、拉普拉斯特征映射(LE)算法和扩散映射(DM)进行比较,实验结果表明DDMA方法在低维空间中代表高维数据的同时成功保留了数据的原始特性,且通过该方法在低维空间中产生的数据结构特性优于其他方法,在数据降维与特征提取性能上验证了该方案的有效性。  相似文献   

9.
孙圣姿  万源  曾成 《计算机应用》2018,38(12):3391-3398
半监督模式下的多视角特征降维方法,大多并未考虑到不同视角间特征投影的差异,且由于缺乏对降维后的低维矩阵的稀疏约束,无法避免噪声和其他不相关特征的影响。针对这两个问题,提出自适应嵌入的半监督多视角特征降维方法。首先,将投影从单视角下相同的嵌入矩阵扩展到多视角间不同的矩阵,引入全局结构保持项;然后,将无标签的数据利用无监督方法进行嵌入投影,对于有标签的数据,结合分类的判别信息进行线性投影;最后,再将两类多投影映射到统一的低维空间,使用组合权重矩阵来保留全局结构,很大程度上消除了噪声及不相关因素的影响。实验结果表明,所提方法的聚类准确率平均提高了约9%。该方法较好地保留了多视角间特征的相关性,捕获了更多的具有判别信息的特征。  相似文献   

10.
动态脑网络能有效反映脑网络中连接结构的动态变化信息,被广泛使用于脑疾病的识别研究中。动态脑网络由一组连接矩阵组成。通常研究者会基于矩阵上三角元素向量的L2距离,计算所有样本连接矩阵的距离矩阵,使用状态聚类将这些连接矩阵划分为不同的状态。但是简单地使用L2距离,且在全部样本上进行状态聚类会导致忽视连接矩阵所代表的脑网络的图结构信息以及个体之间的差异。因此,提出一种新的基于图核的动态脑网络状态构建方法。该方法针对单个体的动态脑网络设计,使用图核衡量单个样本的动态脑网络连接矩阵之间的相似性,随后根据相似性矩阵,将连接矩阵与其最相似的矩阵进行合并。在精神分裂症数据集上验证该方法的有效性,其结果证明所提方法可以获取81.6%的分类精度。  相似文献   

11.
基于流形学习的维数约简算法   总被引:1,自引:1,他引:0       下载免费PDF全文
姜伟  杨炳儒 《计算机工程》2010,36(12):25-27
介绍线性维数约简的主成分分析和多维尺度算法,描述几种经典的能发现嵌入在高维数据空间的低维光滑流形非线性维数约简算法,包括等距映射、局部线性嵌入、拉普拉斯特征映射、局部切空间排列、最大方差展开。与线性维数约简算法相比,非线性维数约简算法通过维数约简能够发现不同类型非线性高维数据的本质特征。  相似文献   

12.
Graph embedding (GE) is a unified framework for dimensionality reduction techniques. GE attempts to maximally preserve data locality after embedding for face representation and classification. However, estimation of true data locality could be severely biased due to limited number of training samples, which trigger overfitting problem. In this paper, a graph embedding regularization technique is proposed to remedy this problem. The regularization model, dubbed as Locality Regularization Embedding (LRE), adopts local Laplacian matrix to restore true data locality. Based on LRE model, three dimensionality reduction techniques are proposed. Experimental results on five public benchmark face datasets such as CMU PIE, FERET, ORL, Yale and FRGC, along with Nemenyi Post-hoc statistical of significant test attest the promising performance of the proposed techniques.  相似文献   

13.
Local and global mappings of topology representing networks   总被引:1,自引:0,他引:1  
As data analysis tasks often have to deal with complex data structures, the nonlinear dimensionality reduction methods play an important role in exploratory data analysis. In the literature a number of nonlinear dimensionality reduction techniques have been proposed (e.g. Sammon mapping, Locally Linear Embedding). These techniques attempt to preserve either the local or the global geometry of the original data, and they perform metric or non-metric dimensionality reduction. Nevertheless, it is difficult to apply most of them to large data sets. There is a need for new algorithms that are able to combine vector quantisation and mapping methods in order to visualise the data structure in a low-dimensional vector space. In this paper we define a new class of algorithms to quantify and disclose the data structure, that are based on the topology representing networks and apply different mapping methods to the low-dimensional visualisation. Not only existing methods are combined for that purpose but also a novel group of mapping methods (Topology Representing Network Map) are introduced as a part of this class. Topology Representing Network Maps utilise the main benefits of the topology representing networks and of the multidimensional scaling methods to disclose the real structure of the data set under study. To determine the main properties of the topology representing network based mapping methods, a detailed analysis of classical benchmark examples (Wine and Optical Recognition of Handwritten Digits data set) is presented.  相似文献   

14.
Traditional nonlinear manifold learning methods have achieved great success in dimensionality reduction and feature extraction, most of which are batch modes. However, if new samples are observed, the batch methods need to be calculated repeatedly, which is computationally intensive, especially when the number or dimension of the input samples are large. This paper presents incremental learning algorithms for Laplacian eigenmaps, which computes the low-dimensional representation of data set by optimally preserving local neighborhood information in a certain sense. Sub-manifold analysis algorithm together with an alternative formulation of linear incremental method is proposed to learn the new samples incrementally. The locally linear reconstruction mechanism is introduced to update the existing samples’ embedding results. The algorithms are easy to be implemented and the computation procedure is simple. Simulation results testify the efficiency and accuracy of the proposed algorithms.  相似文献   

15.
Linear discriminant analysis (LDA) is a dimension reduction method which finds an optimal linear transformation that maximizes the class separability. However, in undersampled problems where the number of data samples is smaller than the dimension of data space, it is difficult to apply LDA due to the singularity of scatter matrices caused by high dimensionality. In order to make LDA applicable, several generalizations of LDA have been proposed recently. In this paper, we present theoretical and algorithmic relationships among several generalized LDA algorithms and compare their computational complexities and performances in text classification and face recognition. Towards a practical dimension reduction method for high dimensional data, an efficient algorithm is proposed, which reduces the computational complexity greatly while achieving competitive prediction accuracies. We also present nonlinear extensions of these LDA algorithms based on kernel methods. It is shown that a generalized eigenvalue problem can be formulated in the kernel-based feature space, and generalized LDA algorithms are applied to solve the generalized eigenvalue problem, resulting in nonlinear discriminant analysis. Performances of these linear and nonlinear discriminant analysis algorithms are compared extensively.  相似文献   

16.
局部规则嵌入   总被引:1,自引:0,他引:1  
谭璐  吴翊 《计算机应用》2005,25(4):817-819
引入了拓扑结构和规则拓扑结构的概念,为了寻求具有规则拓扑结构的低维数据集,构 造了拓扑结构规则性的度量,提出了保持数据集拓扑结构的局部规则嵌入方法。与LocallyLinear Embedding,LaplacianEigenmap等核特征映射方法相比,低维嵌入结果是近似规则的,与数据分类有 着更加自然的联系。最后的实例表明,与LLE和LaplacianEigenmap方法相比,该方法能更好地保持 数据集的类特性,揭示数据集的本征结构。  相似文献   

17.
杜汉  龙显忠  李云 《计算机应用》2021,41(12):3455-3461
基于图正则非负矩阵分解(NMF)算法充分利用了高维数据通常位于一个低维流形空间的假设从而构造拉普拉斯矩阵,但该算法的缺点是构造出的拉普拉斯矩阵是提前计算得到的,并没有在乘性更新过程中对它进行迭代。为了解决这个问题,结合子空间学习中的自表示方法生成表示系数,并进一步计算相似性矩阵从而得到拉普拉斯矩阵,而且在更新过程中对拉普拉斯矩阵进行迭代。另外,利用训练集的标签信息构造类别指示矩阵,并引入两个不同的正则项分别对该类别指示矩阵进行重构。该算法被称为图学习正则判别非负矩阵分解(GLDNMF),并给出了相应的乘性更新规则和目标函数的收敛性证明。在两个标准数据集上的人脸识别实验结果显示,和现有典型算法相比,所提算法的人脸识别的准确率提升了1% ~ 5%,验证了其有效性。  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司    京ICP备09084417号-23

京公网安备 11010802026262号