论文部分内容阅读
近几年来,深度学习发展非常迅速,在多个领域上深度神经网络具有最优的模型表现,然而模型复杂度越来越高,模型参数量越来越大并且训练需要大量数据支撑;由于结构特点,模型常具有大量冗余参数并且计算资源需求高昂,进一步阻碍了移动端部署和推理,目前可以通过模型压缩手段,例如模型量化来减少信息冗余和模型复杂度。模型降低了复杂度除了性能具有部分优化且势必会带来精度损失,而压缩过程中如何尽可能弥补模型精度损失是一个非常关键的问题。本文针对卷积神经网络使用模型量化以及多种模型压缩手段和问题开展研究,主要工作内容和贡献如下:针对模型参数存在信息冗余以及直接模型量化较高精度损失等问题,本文提出了一种基于知识蒸馏的渐进式量化过程优化方法,该方法将全精度卷积神经网络作为教师网络,量化卷积神经网络作为学生网络,使用知识蒸馏的思想,通过相对熵或者特征图转移方法进行教师-学生的引导训练过程,并且使用了渐进式思想从模型渐进量化,量化等级渐进,组件渐进量化等多个方面进行网络渐进量化过程,并且通过多方位多角度的分析和实验结果,可以看出提出方法和其他方法相比有效地保留原始压缩模型性能的同时减少量化模型精度损失,为后续模型量化的优化方式提供了研究方案。针对结构带来信息冗余,模型参数量较大,紧凑模型量化精度损失较高等问题,本文提出了一种基于低秩分解的渐进量化优化方法,该方法对原始卷积层引入矩阵分解进行拆分为多个量化卷积层,并且使用张量分解思想张量化全连接层来在维持紧凑网络结构冗余减少参数量的同时平衡网络模型的精度损失提升模型推理速度,且网络某些超参数例如秩的选择无需精细调整。此外为了低秩分解理论可以快速结合应用于深度学习领域,设计开发了低秩分解工具包包含低秩分解所需的基本数学操作以及多种低秩分解算法等,工具包高度模块化可以内嵌于深度学习开发框架中并且进行了试验测试和分析。最后对提出方法在多个数据集上进行实验,均取得了较好的实验结果,并且和先进方法进行对比可以看到提出方法具有的优势,同时也为紧凑网络结构进一步进行压缩提供了研究思路。