首页 | 官方网站   微博 | 高级检索  
相似文献
 共查询到16条相似文献,搜索用时 783 毫秒
1.
多项式函数型回归神经网络模型及应用   总被引:2,自引:1,他引:2  
周永权 《计算机学报》2003,26(9):1196-1200
文中利用回归神经网络既有前馈通路又有反馈通路的特点,将网络隐层中神经元的激活函数设置为可调多项式函数序列,提出了多项式函数型回归神经网络新模型,它不但具有传统回归神经网络的特点,而且具有较强的函数逼近能力,针对递归计算问题,提出了多项式函数型回归神经网络学习算法,并将该网络模型应用于多元多项式近似因式分解,其学习算法在多元多项式近似分解中体现了较强的优越性,通过算例分析表明,该算法十分有效,收敛速度快,计算精度高,可适用于递归计算问题领域,该文所提出的多项式函数型回归神经网络模型及学习算法对于代数符号近似计算有重要的指导意义。  相似文献   

2.
基于代数神经网络的不确定数据知识获取方法   总被引:1,自引:0,他引:1  
定义了代数神经元、代数神经网络,讨论了不确定数据知识获取的数学机理,设计出一类单输入,单输出的三层前向网络来获取知识的代数神经网络模型,给出一种基于代数神经网络知识获取的方法,通过该网络的学习,能确定任意一组给定数据的目标函数的逼近式。  相似文献   

3.
为克服邵神经网络模型及其学习算法中的固有缺陷,根据多项式插值和逼近理论,构造出一种以工;agucrre正交多项式作为隐层神经元激励函数的多输入前向神经网络模型。针对该网络模型,提出了权值与结构确定法,以便快速、自动地确定该网络的最优权值和最优结构。计算机仿真与实验结果显示:该算法是有效的,并且通过该算法所得到的网络具有较优的逼近性能和良好的去噪能力。  相似文献   

4.
研究了一种新的多输出神经元模型.首先,给出这类模型的一般形式,并将该模型应用于多层前向神经网络;其次,给出了其学习算法,即递推最小二乘算法,最后通过几个模拟实验表明,采用多输出神经元模型的多层前向神经网络,具有结构简单,泛化能力强,收敛速度快,收敛精度高等特点,其性能远远优于激活函数可调模型的多层前向神经网络.  相似文献   

5.
定义了傅立叶神经元与傅立叶神经网络,将一组傅立叶基三角函数作为神经网络各隐层单元的激合函数,设计出一类单输入单输出三层前向傅立叶神经网络与双输入单输出四层前向傅立叶神经网络,以及奇、偶傅立叶神经网络,基于三角函数逼近论,讨论了前向傅立叶神经网络的三角插值机理及系统逼近理论,且有严格的数学理论基础,给出了前向傅立叶神经网络学习算法,通过学习,它们分别能逼近于给定的傅立叶函数到预定的精度。仿真实验表明,该学习算法效率高,具有极为重要的理论价值和应用背景。  相似文献   

6.
为提高神经网络的逼近能力,通过在普通BP网络中引入量子旋转门,提出了一种新颖的量子衍生神经网络模型. 该模型隐层由量子神经元组成,每个量子神经元携带一组量子旋转门,用于更新隐层的量子权值,输入层和输出层均为普通神经元. 基于误差反传播算法设计了该模型的学习算法. 模式识别和函数逼近的实验结果验证了提出模型及算法的有效性.  相似文献   

7.
文章提出了二阶有理式多层前馈神经网络的数学模型。有理式多层神经网络的思想来源于函数逼近理论中的有理式逼近。有理式前馈神经网络模型是传统前俯神经网络模型的推广,能有效地求解函数逼近问题。文章给出了有理式多层神经网络的学习算法,即误差反传播学习算法。就计算复杂度而言,有理式神经网络的学习算法与传统的多层神经网络反传播算法是同阶的。文章还给出了函数逼近和模式识别两个应用实例,实验结果说明二阶有理式多层神经网络在解决传统的问题上是有效的。  相似文献   

8.
Legender神经网络建模及股票预测   总被引:1,自引:0,他引:1  
邹阿金  罗移祥 《计算机仿真》2005,22(11):241-243
基于多项式逼近理论,将一组Legender正交多项式做为隐含层神经元的传递函数,再以其加权和函数做为神经网络输出,从而构成一种新型的三层多输入Legender神经网络模型;采用BP学习算法,通过对历史观测样本数据的训练,调整该神经网络的权值,建立非线性时间序列辨识模型,以此预测股票价格的变化.仿真实验表明,Legender神经网络具有优良的逼近任意非线性系统的特性,且学习收敛速度很快;深发展A股预测结果为:训练次数200,最大相对误差5.41%;深证成指预测结果为:训练次数120,最大相对误差4.17%.  相似文献   

9.
从神经元的运算特性入手,对神经元的激发函数,网络结构,学习目标三方面进行了推广,设计出了一类用于有限域上置换多项式判定的多项式神经网络模型,它们是单输入单输出的3层神经网络。给出了两类置换多项式判定的离散网络模型学习算法,该算法简单可行,易于实现。  相似文献   

10.
根据多项式插值与逼近理论,以一组零阀值特例Jacobi正交多项式(第二类Chebyshev正交多项式)作为隐层神经元的激励函数,构造一种基于Jacobi正交基的前向神经网络模型.该神经网络模型采用三层前向结构,其中输入、输出层神经元采用零阀值线性激励函数.为改进传统神经网络收敛速度较慢及其局部极小点问题,针对该Jacobi正交基前向神经网络模型,提出了一种基于伪逆的直接计算神经网络权值的方法(即,一步确定法),并利用该神经网络进行预测.计算机仿真结果表明,相对比传统的BP迭代训练方法,权值直接确定法计算速度更快、预测精度更高.  相似文献   

11.
多元多项式函数的三层前向神经网络逼近方法   总被引:4,自引:0,他引:4  
该文首先用构造性方法证明:对任意r阶多元多项式,存在确定权值和确定隐元个数的三层前向神经网络.它能以任意精度逼近该多项式.其中权值由所给多元多项式的系数和激活函数确定,而隐元个数由r与输入变量维数确定.作者给出算法和算例,说明基于文中所构造的神经网络可非常高效地逼近多元多项式函数.具体化到一元多项式的情形,文中结果比曹飞龙等所提出的网络和算法更为简单、高效;所获结果对前向神经网络逼近多元多项式函数类的网络构造以及逼近等具有重要的理论与应用意义,为神经网络逼近任意函数的网络构造的理论与方法提供了一条途径.  相似文献   

12.
本文提出了一种新的基于泛函网络的多项式求根模型及学习算法,而泛函网络的参数利用解线性不等式组,可得到所求任意高阶多项式近似根的一般参数表达式。文章还讨论了基于泛函网络的多项式求根学习算法实现的一些技术问题,相对传统方法,能够有效地获得任意多项式对应根的参数表达式。  相似文献   

13.
In this paper, a novel method based on feed-forward neural networks is presented for solving Fredholm integral equations of the second kind. In the present approach, we first approximate the unknown function based on neural networks, then substitute the approximate function in the appropriate error function of the integral equation, and finally train the network with as few neurons as necessary to achieve the desired accuracy. This novel method, in comparison with Harr function and Bernstein polynomials methods, shows that the use of neural networks provides solutions with very good generalizations and higher accuracy. The proposed method is illustrated by several examples.  相似文献   

14.
In this paper, we propose the approximate transformable technique, which includes the direct transformation and indirect transformation, to obtain a Chebyshev-Polynomials-Based (CPB) unified model neural networks for feedforward/recurrent neural networks via Chebyshev polynomials approximation. Based on this approximate transformable technique, we have derived the relationship between the single-layer neural networks and multilayer perceptron neural networks. It is shown that the CPB unified model neural networks can be represented as a functional link networks that are based on Chebyshev polynomials, and those networks use the recursive least square method with forgetting factor as learning algorithm. It turns out that the CPB unified model neural networks not only has the same capability of universal approximator, but also has faster learning speed than conventional feedforward/recurrent neural networks. Furthermore, we have also derived the condition such that the unified model generating by Chebyshev polynomials is optimal in the sense of error least square approximation in the single variable ease. Computer simulations show that the proposed method does have the capability of universal approximator in some functional approximation with considerable reduction in learning time.  相似文献   

15.
Adaptive artificial neural network techniques are introduced and applied to the factorization of 2-D second order polynomials. The proposed neural network is trained using a constrained learning algorithm that achieves minimization of the usual mean square error criterion along with simultaneous satisfaction of multiple equality and inequality constraints between the polynomial coefficients. Using this method, we are able to obtain good approximate solutions for non-factorable polynomials. By incorporating stability constraints into the formalism, our method can be successfully used for the realization of stable 2-D second order IIR filters in cascade form.  相似文献   

16.
Numerical solution of a system of fuzzy polynomials by fuzzy neural network   总被引:1,自引:0,他引:1  
In this paper, a new approach for solving systems of fuzzy polynomials based on fuzzy neural network (FNN) is presented. This method can also lead to improve numerical methods. In this work, an architecture of fuzzy neural networks is also proposed to find a real root of a system of fuzzy polynomials (if exists) by introducing a learning algorithm. Finally, we illustrate our approach by numerical examples.  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司    京ICP备09084417号-23

京公网安备 11010802026262号