论文部分内容阅读
21世纪,计算机科学的取得了飞跃式发展,人工智能技术是继物联网、云计算、大数据之后又一个里程碑式的发展阶段,目前人工智能已经被应用到计算机科学的各个领域如语言识别、图像识别、自然语言处理和专家系统等。人脸识别具有开放性、主动性、稳定性等特点,具有广泛的应用前景,因此越来越受到专家学者的重视。但是,目前的人脸识别技术受视频图像采集所处的天气、光照等环境因素,待识别对象的面部表情、姿态、遮挡等人为因素的影响,人脸识别的准确性明显下降,距离开放、不可控、非配合的实际应用场景还有很大距离。其中姿态变化具有非线性特点,传统的模式识别模型或浅层神经网络模型无法解决复杂的、非线性的分类问题,是目前人脸识别的一大难题。深度学习能够逐层提取特征,其不断抽象化概念化的过程与人脑的工作机理非常相似,而这种工作机理上的相似也使得深度学习能够更好的解决姿态变化带来的非线性问题。本文以人脸识别模型为例,对设计移动端低功耗、高性能、少存储的深度学习算法进行研究。因此本文的研究内容及论文创新主要包括以下几点:1)本文提出包含两个独立卷积神经网络的改进人脸识别模型,两个神经网络的卷积核大小不相同,来提取不同粒度的人脸特征。另外为了仿生人眼在在识别过程中自觉提取不同层次特征的功能,将各池化层的输出特征图作为全连接层的输入。为了减少光照、人脸平面旋转对图像识别准确率的影响,本文对人脸输入图像采用PCA和Gabor变换对人脸图像进行平面旋转姿态校正和特征提取。2)针对深度神经网络模型功耗大、存储大、运算慢的问题本文首先从算法角度出发、采用模型剪枝、层级融合等方法压缩网络模型,在较小的准确率损失的情况下模型压缩了4.5倍。大大减少了模型的存储空间和运算量。3)针对当前市场上基于网络API接口的智能应用易受使用环境的网络状态影响,并且针对深度学习加速优化的硬件平台目前大多数处于研发阶段,本文提出了通过手机端GPU加速基于深度卷积神经网络的人脸识别算法。本文采用跨平台的GPU并行软件框架OpenCL设计人脸识别并行算法。本文在保证结果精度的前提下算法加速了51.88倍。加速后的移动端人脸识别算法耗时248.17ms,基本满足实时人脸识别的要求。