论文部分内容阅读
近年来,深度神经网络迅猛发展,特别是在计算机视觉方面,不断刷新着传统模型的性能。深度模型具有很强的性能,但参数数量多,巨量的参数能提升性能,表达模型的复杂性,也会带来网络体量巨大、运算缓慢、计算成本高、存储量大等缺点,使之难以部署在移动设备这类受限的硬件平台上。这不利于深度学习模型向运算资源有限的设备和应用中嵌入,而深度网络压缩是解决此类问题的关键技术。本文属于卷积神经网络压缩的研究方向,其具体工作如下:首先,论文介绍了卷积神经网络的基础结构,然后对几种经典的卷积神经网络压缩模型进行了研究,阐述它们的基本思想,详细地分析了它们使用的压缩方法并总结了各自的特点。其次,本文重点研究了轻量级神经网络压缩模型MobileNet的具体结构,根据其结构特点与参数分布结构,采用正则化方法与Dropout技术这两种经典的深度学习技术,对MobileNet模型的网络结构进行改进,提出了一种基于MobileNet压缩模型的优化方案。最后,本文选择使用经典数据集CIFAR10进行实验与测试,将CIFAR10数据集划分为训练集与测试集之后,在TensorFlow深度学习框架上对改进的MobileNet模型进行训练与测试,实现了本文提出的优化方案并对实验结果进行对比分析。最终实验结果表明,本文提出的改进方法能有效地对网络参数进行约束,减少神经元之间的耦合,提高了模型对图像识别的正确率,对原MobileNet模型有良好的优化效果。