论文部分内容阅读
前向多层神经网络对小规模数据集具有良好的学习和分类性能,但随着样本数和类别数的增加,不仅其训练时间大大延长,分类性能往往也会显著降低。本文以面向分类的大规模学习问题为应用背景,针对传统误差反传学习算法在每一轮学习中都让所有样本参与训练而导致学习时间长、推广性能差、样本不平衡严重等缺点,提出了一种神经网络动态学习方法。即在每一轮学习中,只让决策边界附近的样本参与学习以减少实际训练样本数,从而达到加快神经网络的学习速度,改善其推广性能、克服样本不平衡性现象的目的。神经网络的学习过程实际上就是寻找理想决策边界的过程。传统的输入变量归一化或成比例缩小到0-1之间等特征表示方法往往使得样本间的距离变“小”,类别间的分类间隔变“窄”,这样就会导致神经网络的学习时间变长,甚至导致学习过程不收敛。为了解决这一问题,本文提出了一种对输入数据进行编码的新的特征表示方法。对Letter、Shuttle、USPS等数据的分析结果表明,本文提出的方法是有效的。