论文部分内容阅读
深度学习作为人工智能领域中的重要研究方向以其卓越的性能表现得到了广泛的关注。深度学习通过深层非线性的网络结构实现复杂函数逼近,拥有比传统神经网络更强大的特征学习和表达能力。但是深度神经网络模型会同时捕捉样本数据中的特征和噪音,进而导致过拟合现象的出现。另外,复杂模型对于存储空间和计算资源的要求更高,然而,随着智能移动设备的普及,神经网络也作为深度学习领域中被广泛应用的一种方法也需要更多地被部署在小型消费级设备上,那么寻求性能和内存以及计算资源的平衡就成为深度神经网络中至关重要的一点。本文研究深度神经网络中冗余性,提出了基于稀疏抑制(Sparse/Restrain,SR)策略的深度神经网络训练优化方法,主要研究内容如下:首先,本文对于网络模型中能够对最终性能产生影响的因素分别进行了对比实验。继而,通过删除网络模型中不同的连接来判断不同连接重要程度。然后,提出了基于稀疏抑制策略的优化训练方法。分别采用LeNet、AlexNet两种卷积神经网络结构以及MNIST、CIFAR-10和CIFAR-100三种数据集进行对比实验。实验表明SR训练方法有效提高CNN训练性能,不同实验条件下Top1精度提升1.8%-5.0%,同时网络规模得到有效缩减,验证了SR优化方法的有效性和普适性。本文验证了深度学习中广泛存在的冗余性,发现网络中不同连接重要程度的差异性,为后续研究深度神经网络训练过程的优化提供了一定的指导意义,在学术科研和工程应用方面具有重大意义。