论文部分内容阅读
径向基函数(Radial Basis Function,RBF)神经网络以其简单的结构,优良的全局逼近性能而引起了学者们的广泛关注.由于RBF神经网络的种种优越性,使得它在函数逼近和非线性时间序列预测等方面得到广泛应用。本文研究了RBF神经网络的各种学习算法。在总结概述前人工作优缺点的基础上,本文提出了两种优良的改进学习算法。与现存的学习算法相比,在具有良好性能的前提下,本文的算法可以产生更紧凑的网络结构。 RBF神经网络现有的各种学习算法可以分为两类:离线学习算法和在线学习算法。在线学习算法可以有效处理反映对象特性改变的样本数据,比较适用于实时的应用环境。对于在线学习(训练)算法来说,后一个训练数据进入网络之前,前一个训练数据训练网络的过程必须结束,也就是在线训练算法的每次迭代时间必须小于样本的采样周期。为了提高在线训练算法的实时应用范围,我们必须降低算法的复杂性,加快算法的训练时间。另外,我们需要关注算法的泛化能力。一般的情况下,对于RBF神经网络来说,在达到相同的训练精度的前提下,网络中的隐层神经元个数越少,则网络的泛化能力就越好。 本文首先回顾RBF神经网络的发展简史、网络结构及其基本的学习过程。第三章,在介绍批处理学习算法特点的基础上,详细介绍了其中的典型代表——正交最小二乘算法。第四章详细说明了现阶段流行的各种RBF神经网络在线学习算法(RAN,RANEKF,MRAN,GGAP-RBF(GAP-RBF)),并分析了各种在线学习算法的优缺点。 以在线学习算法MRAN为基础,本文在第五章提出了一种改进的RBF神经网络在线学习算法,称为IRAN学习算法。针对MRAN算法的计算复杂性较高,对内存要求较大的缺点,IRAN算法采用一种新的基于吉文斯QR分解的递归最小二乘算法,代替EKF算法来进行权值的更新。它既可以加快网络的收敛速度,又降低了其复杂性。IRAN算法采用一种新的隐层神经元删除策略,有效的除去了网络中冗余神经元,训练后的网络结构更为精简。 第六章,在Guang-Bin Huang的GGAP-RBF算法的基础上,本文提出了另一