基于GPU高性能计算的人脸表情识别算法的研究

来源 :武汉理工大学 | 被引量 : 13次 | 上传用户:fly383910564
下载到本地 , 更方便阅读
声明 : 本文档内容版权归属内容提供方 , 如果您对本文有版权争议 , 可与客服联系进行内容授权或下架
论文部分内容阅读
在数字图像处理领域,随着研究内容和算法复杂度的不断增加,时间和资源的消耗越来越大,这为该领域深入研究带来了巨大挑战,图形处理器(GPU)的高速发展使其能为图形处理以外的通用计算提供了良好的平台。NVIDIA公司发行的统一计算设备架构(CUDA)能有效利用GPU强劲的处理能力和巨大的存储器带宽进行图形渲染以外的计算,被广泛用于现代科学技术的各个领域。另一方面,人脸识别是模式识别和图像处理领域最前沿的研究课题之一,尤其是人脸表情识别这个领域,由于人脸表情非常复杂,计算机识别并不容易,所以本文采用了一种统计的方法来进行识别,该方法数据密集,计算量大,重复性高,具有典型的并行计算的特点,所以本文提出了基于GPU高性能平台的人脸表情识别算法研究和优化方法。本文详细分析了GPU架构和CUDA的相关理论知识,对数字图像的并行化进行了研究分析,通过基于GPU的图像二值化算法实验证明了GPU在数字图像并行化研究方面有很明显的优势。设计了GPU的通用计算方法和CUDA架构对人脸表情识别问题的高性能计算方案,基于具有216个流处理器的GTX 260+的GPU对人脸表情识别方法进行并行化实现,在与原CPU算法计算结果精度一致的条件下,利用GPU并行实现效率可提高220倍,实验结果表明基于GPU的高性能计算在人脸表情识别处理方面是非常有效的,可以显著提高计算效率。对GPU共享内存和纹理内存同步块内线程技术进行研究,相对于全局内存而言,纹理内存的存储容量大,能充分满足存储人脸数据的要求,位于GPU片内的共享内存线程间延迟只有全局内存的1/100,线程间访问速度非常快,充分利用本地存储器资源优势是实现线程间通信延迟最小的方法。利用该方法对基于GPU的算法进行优化,解决了GPU线程间延迟问题,可以进一步提高效率,相对CPU计算可提速近700倍,研究结果表明GPU计算对于大规模数据并行计算有强大的适应能力,为提高模式识别效率提供了一种新的途径。
其他文献
P2P即是对等计算技术,P2P网络中没有中心化的服务器,每一个参与者都是网络中的平等节点,在下载的同时提供上传服务。基于P2P的流媒体点播系统中的媒体资源文件既存储在服务器
对客观物理世界的监测是无线传感器网络的最重要的应用之一,目标检测问题即是要判断被监测目标的发生与否,是所有监测应用的前提。在理想环境中,对目标是否发生的判断是根据
随着计算技术的发展和数码设备的广泛应用,图像成为了我们生活中随时会留下的一个记录,其中蕴藏着各种有价值的信息。图像取证是新兴的一个研究方向,主要包含图像增强、图像篡改
随着计算机硬件的发展和互联网技术的普及,以及电影特效、电子游戏的飞速发展,大众对画面精美度以及对画面逼真度的不断追求,迫切需要提高计算机动画的模拟速度,自然景观的模拟就
近年来Web服务技术得到快速发展,它具有分布式、模块化、基于网络、自描述等特性,为互联网应用提供了统一的服务注册、发现、绑定和集成机制,而Mashup的概念则主要是通过整合不
随着移动互联网的发展,传统的互联网应用正在向移动设备转移。移动设备以其便携性以及丰富的功能正逐渐成为人们生活中不可或缺的一部分,尤其是当前流行的社交应用以及多媒体
语义物联网作为较新的研究领域是对物联网的一个扩展,其特点是在使用语义技术消除数据异构的基础上,能结合丰富的知识进行语义查询、推理。传感器网络作为语义物联网的基础设
随着人类社会的发展和科学技术的进步,游戏逐渐成为一种重要的娱乐方式和教育途径。目前3D游戏越来越受广大玩家的喜爱,尤其是3D赛车游戏,一直是玩家的宠儿。若能营造出逼真
随着芯片集成度的提高,片上计算节点和存储节点的增多,现有的片上互联技术遇到了瓶颈,片上网络作为一种新的具有高可扩展性的片上互联技术被逐步采用。片上网络的通讯中,通过对数
移动代理(MobileAgent)是指能够携带代码、数据及执行状态在网络中根据既定的路线在主机间迁移并能够在新的位置从断点处继续执行的程序。作为一种新的分布式计算模式,Mobile