首页 | 官方网站   微博 | 高级检索  
相似文献
 共查询到19条相似文献,搜索用时 62 毫秒
1.
模糊神经网络快速学习算法的研究   总被引:3,自引:0,他引:3  
廖俊  任德祥 《控制与决策》1997,12(5):606-609,613
在分析模糊模型及相应模糊神经网络的基础上,提出一种快速学习算法--择近学习算法,它公需对每个训练数据学习一次,就可得了较好的结果,因此,其效率非常高。在算法中还引进了置信度的概念,以提高学习结果的可靠性,择近学习算法特别适用于捕获表达各种变量之间的结果信息。仿真结果证实了算法的有效性。  相似文献   

2.
构造型神经网络双交叉覆盖增量学习算法   总被引:12,自引:1,他引:12  
陶品  张钹  叶榛 《软件学报》2003,14(2):194-201
研究了基于覆盖的构造型神经网络(cover based constructive neural networks,简称CBCNN)中的双交叉覆盖增量学习算法(BiCovering algorithm,简称BiCA).根据CBCNN的基本思想,该算法进一步通过构造多个正反覆盖簇,使得网络在首次构造完成后还可以不断地修改与优化神经网络的参数与结构,增加或删除网络中的节点,进行增量学习.通过分析认为,BiCA学习算法不但保留了CBCNN网络的优点与特点,而且实现了增量学习并提高了CBCNN网络的泛化能力.仿真实验结果显示,该增量学习算法在神经网络初始分类能力较差的情况下具有快速学习能力,并且对样本的学习顺序不敏感.  相似文献   

3.
BP神经网络快速学习算法及其应用   总被引:3,自引:0,他引:3  
一种带偏差单元的内部回归神经网络模型为基础,利用Matlab编制了IRN网络的仿真程序,给出了对函数逼近和模式识别方面的仿真算例,其学习收敛速度大大优于BP算法。  相似文献   

4.
本文提出一和中基于Kalman滤波算法的神经网络快速学习算法,经图象边缘检测应用结果表明,该算法对于加快网络学习的收敛性有着显著的成效。  相似文献   

5.
二进神经网络的汉明图学习算法   总被引:1,自引:0,他引:1  
华强  郑启伦 《计算机学报》2001,24(11):1150-1155
二进神经网络的几何学习算法ETL必须分隔全部真顶点集合和伪顶点集合,且为一种穷举的算法。该文使用所定义的汉明图和子汉明图,给出了选择核心顶点的依据,组成和扩展子汉明图的方向和步骤,以及一个子汉明图可用一个稳层神经元表示的条件和权值、阈值的计算公式。所提出的二进神经网络汉明图学习算法可用于任意布尔函数;无需穷举并一定收敛,因而是快速的;对文献所举实例取得了较ETL算法结构更为优化的三层前向网络。  相似文献   

6.
神经网络增强学习的梯度算法研究   总被引:11,自引:1,他引:11  
徐昕  贺汉根 《计算机学报》2003,26(2):227-233
针对具有连续状态和离散行为空间的Markov决策问题,提出了一种新的采用多层前馈神经网络进行值函数逼近的梯度下降增强学习算法,该算法采用了近似贪心且连续可微的Boltzmann分布行为选择策略,通过极小化具有非平稳行为策略的Bellman残差平方和性能指标,以实现对Markov决策过程最优值函数的逼近,对算法的收敛性和近似最优策略的性能进行了理论分析,通过Mountain-Car学习控制问题的仿真研究进一步验证了算法的学习效率和泛化性能。  相似文献   

7.
神经网络的新型二阶学习算法及其应用   总被引:6,自引:3,他引:3  
针对BP算法和Karayiannis的二阶学习算法存在的不足,提出多层前向网络的新型二阶学习算法。该算法具有二阶收敛速度,其计算量与通常的递推量小二乘法相当。算法性能分析和仿真应用表明新算法是有效的。  相似文献   

8.
本文以海明神经网络与自适应谐振理论(ART)模型学习算法为基础,从理论上分析了海明网络学习算法的缺陷,利用ART网络的思想,提出了一种快速分类的神经元网络的算法,命名为Improved Hamming算法(简称Im-H算法)。此算法主要优点在于阈值更新及引入了经验迭代次数。将此算法用于字符模式识别,大量的计算机实验结果表明了Im-H网络学习算法的有效性、快速性。  相似文献   

9.
多层神经网络学习算法的研究   总被引:2,自引:0,他引:2  
本文对多层神经网络的反向传播算法作了简要的分析和讨论,据此提出了一种新的学习算法用以消除多层网络的“迟钝状态”。实验结果表明,这种新算法能够加速学习收敛速度并避免陷入局部极小。  相似文献   

10.
中文信息自动分类系统及其神经网络优化算法   总被引:4,自引:0,他引:4  
对两种在我校曾用过的中文自动分类方法进行 了介绍.在对这二种自动分类方法的改进基础上,提出了一种全新的基于神经网络的自动分 类优化算法.这种方法运用人工神经网络理论,并结合专家的职业经验,模仿手工分类的思 维过程,对过去已研制成的两个系统进行了改进和优化.这种方法的设计思想、体系结构、 理论性优化在这里进行了重点介绍.  相似文献   

11.
一种大类别数分类的神经网络方法   总被引:4,自引:0,他引:4  
神经网络是一种普遍使用的分类方法。当类别数目较大时,神经网络结构复杂、训练时间激增、分类性能下降。针对这些问题,基于N分类问题的两种类方法和树型分类器结构,对两分类子网络集进行排序,中给出了一种大类别分类的神经网络阵一结构和快速搜索方法并重点分析了网络阵列的分类性能。理论分析表明,使用网络阵列方法可降低平均分类错误率。该方法还使得网络结构简单灵活,易于扩充,网络的训练时间缩短,仿真实验表明,该方  相似文献   

12.
神经网络用于多模式分类   总被引:1,自引:0,他引:1  
杨力  张佩芬 《机器人》1991,13(3):62-64,F003
本文叙述一种改进型HAMMING网在印刷汉字文本识别实用系统中作为粗分类的应用.给出了以3755印刷汉字为多模式分类对象的神经网络分类器的结构及其相应的算法.该方法在微型机上用软件仿真得以实现.取得令人满意的结果.  相似文献   

13.
针对BP神经网络在高维数据分类中存在训练时间长的缺点,提出一种新的多神经网络分类模型,该模型采用自组织特征映射(SOFM)网络对训练样本集进行无监督聚类,通过优化竞争层神经元权值,并以此训练BP神经网络实现数据分类.最后对自由手写数字样本进行识别,仿真实验表明,这一模型具有较强的分类能力和泛化能力.  相似文献   

14.
一种前馈神经网的快速算法   总被引:2,自引:0,他引:2  
前馈神经网已经被大量用于非线性信号处理. 经典反向传播算法是一种标准的前馈网络学习算法,但是,对许多应用,反向传播算法的收 敛速度却很慢.本文根据对网络的非线性单元进行线性化而提出一种新的算法,该算法在非 线性信号处理中在精度和收敛速度方面都优于传统的反向传播算法.  相似文献   

15.
提出一种新型的智能PID控制器。将前馈神经网络BP网络作用在弹性积分控制器上,在线调整控制器的参数,采用RBF神经网络作为辨识器在线辨识控制输出对控制输入对象变化的灵敏度信息,提高系统的控制精度。该智能控制器实现了整体性能优化和个别参数优化相结合的思想。通过MATLAB仿真,该新型控制器具有超调量低、鲁棒性好等控制效果。  相似文献   

16.
二进神经网络学习算法研究   总被引:2,自引:2,他引:2  
把二进神经网络对布尔函数映射的学习归结为神经元对学习样本集合的表达。通过对神经元表达能力的分析研究,引入加权距离汉明球的概念,既提高了学习效率也简化了布尔函数实现结构。同时把汉明球及立方体集合覆盖思想等统一在加权汉明距离球覆盖的框架下,另外,还得到旨在提高输出层神经元表达能力的新结果,最后举例说明了此学习策略的可行性与特点,经学习得到的二进神经网络的权系数及阈值皆为整数,易于硬件实现。  相似文献   

17.
增量式IHMCAP算法的研究及其应用   总被引:5,自引:0,他引:5  
增量式IHMCAP算法采用适用于混合型学习的FTART神经网络,成功解决了符号学习与神经网络学习精度之间的均衡性问题。该算法还具有较强的增量学习能力,在给系统增加新的示例时,不用重新生成已有判定树和神经网络,只需进行一遍增量学习即可调整原结构以提高学习精度,效率高,速度快。  相似文献   

18.
一个基于模糊神经网络的模式分类系统   总被引:9,自引:0,他引:9  
目前,基于神经网络的分类系统在许多领域得到了越来越广泛的应用。但是,该系统大多采用的是离线自适应机制,即神经网络需学习新的分类知识时,要重新训练神经网络,从而大大增加神经网络的训练时间;对于重叠分类,一般是构成一个贝叶斯分类器。然而,贝叶斯分类器的构成需要关于分类数据的概率密度函数的先验知识,而这些知识常常在模式分类前是难以获得的。为了解决这些问题,文中根据模糊集合理论,提出了一种基于模糊神经网络  相似文献   

19.
在长文本数据中存在很多与主题不相关词汇,导致这些文本数据具有信息容量大、特征表征不突出等特点。增加这些文本中关键词汇的特征影响,是提高文本分类器性能需要解决的问题。提出一种结合自注意力机制的循环卷积神经网络文本分类模型RCNN_A。注意力机制对文本词向量计算其对正确分类类别的贡献度,得到注意力矩阵,将注意力矩阵和词向量矩阵相结合作为后续结构的输入。实验结果表明,RCNN_A在10类搜狗新闻数据集上,得到了97.35%的分类正确率,比Bi-LSTM(94.75%)、Bi-GRU(94.25%)、TextCNN(93.31%)、RCNN(95.75%)具有更好的文本分类表现。通过在深度神经网络模型中引入注意力机制,能够有效提升文本分类器性能。  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司    京ICP备09084417号-23

京公网安备 11010802026262号