论文部分内容阅读
神经网络的理论和方法在过去的十几年发展极为迅速,它的应用范围涉及到工程、计算机、物理、生物、经济、管理等科学领域.人们应用神经网络进行聚类分析、智能控制、模式识别和优化计算等等.然而,许多问题的研究都要转化为用迭代的神经网络逼近函数的问题.该问题在数学上可以解释成,用一元函数的复合来表示多元函数,这也是希尔伯特的第十三个猜想.本文主要基于神经网络的非线性逼近性质,来研究径向基函数神经网络的逼近能力问题,包括函数逼近问题、强逼近问题以及算子逼近问题.即:函数集合在C(K)(或Lp(K))中的稠密问题,在C(K)(或Lp(K))中紧集上的稠密问题以及算子空间T∶Lp1(K1)→Lp2(K2)的逼近问题.这里ci,λi∈Ri,x,yi∈Rn,i=1,2,…,N,K,K1,K2(?)Rn为任意紧集,1≤p,p1,p2<∞,激活函数g常常取作高斯函数.函数集合F1又常常称作是RBF神经网络的数学表达形式.同时本文也研究了一般前馈网络对于完备线性距离空间中紧集上的函数逼近能力,即:如果H是由以‖·‖H为范数的所有函数构成的完备线性距离空间,V(?)H为一个紧集,函数族在V中稠密问题.这里(?)λjg(τj(x))是输入x的输出,λj是第j个隐单元到输出单元的权值,g是激活函数.τj(x)是第j个隐单元的输入值,它是由输入层以及输入层到第j个隐单元之间的权值决定的.根据不同类型的前馈网络,τj(x)具有不同的数学表达形式.本论文的结构安排如下:第一章回顾一些有关神经网络的背景知识,其中包括近十几年的前馈神经网络逼近结果.第二章介绍本文中需要的泛函分析和广义函数的基础知识,例如:基本函数空间和广义函数空间的关系,基本函数的支集和广义函数的支撑,以及基本函数和广义函数的卷积,等等.第三章主要讨论径向基神经网络的逼近问题,包括一般函数逼近问题,强逼近问题和算子逼近问题.这些结果推广了径向基网络的逼近结论[1-5],为RBF神经网络逼近能力的研究提供了有利的理论基础.第四章研究一般前馈神经网络的强逼近问题,并给出了前馈网络的具体形式的强逼近结果:例如MLP网络等等.指出对于带有一个隐层的前馈神经网络,可以预先给定隐单元的个数和输入单元到隐单元的权值,只需选择适当的隐单元到输出单元的权值,就可以对一族函数中的任意函数作逼近.