共查询到10条相似文献,搜索用时 406 毫秒
1.
多元多项式函数的三层前向神经网络逼近方法 总被引:4,自引:0,他引:4
该文首先用构造性方法证明:对任意r阶多元多项式,存在确定权值和确定隐元个数的三层前向神经网络.它能以任意精度逼近该多项式.其中权值由所给多元多项式的系数和激活函数确定,而隐元个数由r与输入变量维数确定.作者给出算法和算例,说明基于文中所构造的神经网络可非常高效地逼近多元多项式函数.具体化到一元多项式的情形,文中结果比曹飞龙等所提出的网络和算法更为简单、高效;所获结果对前向神经网络逼近多元多项式函数类的网络构造以及逼近等具有重要的理论与应用意义,为神经网络逼近任意函数的网络构造的理论与方法提供了一条途径. 相似文献
2.
3.
用构造性方法证明:对于给定的r阶多项式函数,可以具体地构造出一个三层泛函网络,以任意精度逼近该多项式,所构造的网络的中问神经元个数仅与多项式基函数的阶数r有关,并能用r表达.该文所得结果对于基于多项式基函数的泛函网络逼近任意函数类的网络具体构造和逼近具有理论指导意义. 相似文献
4.
通过分析多元模糊值Bernstein多项式的近似特性,证明了4层前向正则模糊神经网络(FNN)的逼近性能,该类网络构成了模糊值函数的一类泛逼近器,即在欧氏空间的任何紧集上,任意连续模糊值函数能被这类FNN逼近到任意精度,最后通过实例给出了实现这种近似的具体步骤。 相似文献
5.
6.
基于正交多项式函数的神经网络及其性质研究 总被引:5,自引:0,他引:5
神经网络的非线性逼近能力的研究是神经网络研究中的一个热点问题。该文提出了基于正交多项式函数的神经网络构造理论,以此为基础提出了基于正交多项式函数的神经网络的构造方法,利用Stone-Weierstrass定理从理论上证明了基于正交多项式函数的神经网络具有能以任意精度逼近任意紧集上的连续函数的全局逼近性质,最后,提出了基于正交多项式函数的神经网络的选择和评价方法,研究表明,在一定条件下,当选择Chebyshev多项式时,所构造出的神经网络性能最优。 相似文献
7.
新型广义径向基函数神经网络结构研究 总被引:1,自引:0,他引:1
提出了一种新型的广义径向基函数(RBF)神经网络,并研究了该网络的学习方法.不同于传统三层结构的RBF网络,广义RBF网络增加了基函数输出加权层,并在输出层采用超曲面去逼近任意的非线性曲面.实例仿真结果表明,与传统的RBF网络相比,该网络具有良好的逼近性能,收敛速度快,可逼近任意多变量非线性函数. 相似文献
8.
前向代数神经网络的函数逼近理论及学习算法 总被引:12,自引:0,他引:12
周永权 《计算机研究与发展》2000,37(3):264-271
文中对MP神经元模型进行了推广,定义了多项代数神经元、多项式代数神经网络,将多项式代数融入代数神经网络,分析了前向多项式代数神经网络函数逼近能力及理论依据,设计出了一类双输入单输出的前向4层多层式代数神经网络模型,由该模型构成的网络能够逼近于给定的二元多项式到预定的精度。给出了在P-adic意义下的多项式代数神经网络函数逼近整体学习算法,在学习的过程中,不存在局部极小,通过实例表明,该算法有效,最 相似文献
9.
基于HFLANN自组织多项式网络学习算法 总被引:2,自引:0,他引:2
首先提出一种双曲函数型神经网络HFLANN,设计出一类基于HFLANN网络的层次双曲型函数网络HHFLANN,给出了HHFLANN的网络学习算法,使其在用于非线性的拟合中体现了较强的优越性,对于任意的Volterra级数使用HHFLANN网络来逼近是完全可行的,该算法较GMDH算法和SOP算法,具有快速简单的特性,它优于GMDH算法,有规律地选取部分多项式;优于SOP算法,在构造SOP网络不需要太多的中间隐层,从而加快了学习过程,提高了网络的逼近性能,更适合于具有层次结构的应用领域。 相似文献
10.
多项式函数型回归神经网络模型及应用 总被引:2,自引:1,他引:2
文中利用回归神经网络既有前馈通路又有反馈通路的特点,将网络隐层中神经元的激活函数设置为可调多项式函数序列,提出了多项式函数型回归神经网络新模型,它不但具有传统回归神经网络的特点,而且具有较强的函数逼近能力,针对递归计算问题,提出了多项式函数型回归神经网络学习算法,并将该网络模型应用于多元多项式近似因式分解,其学习算法在多元多项式近似分解中体现了较强的优越性,通过算例分析表明,该算法十分有效,收敛速度快,计算精度高,可适用于递归计算问题领域,该文所提出的多项式函数型回归神经网络模型及学习算法对于代数符号近似计算有重要的指导意义。 相似文献