论文部分内容阅读
在数字图像处理领域,随着研究内容和算法复杂度的不断增加,时间和资源的消耗越来越大,这为该领域深入研究带来了巨大挑战,图形处理器(GPU)的高速发展使其能为图形处理以外的通用计算提供了良好的平台。NVIDIA公司发行的统一计算设备架构(CUDA)能有效利用GPU强劲的处理能力和巨大的存储器带宽进行图形渲染以外的计算,被广泛用于现代科学技术的各个领域。另一方面,人脸识别是模式识别和图像处理领域最前沿的研究课题之一,尤其是人脸表情识别这个领域,由于人脸表情非常复杂,计算机识别并不容易,所以本文采用了一种统计的方法来进行识别,该方法数据密集,计算量大,重复性高,具有典型的并行计算的特点,所以本文提出了基于GPU高性能平台的人脸表情识别算法研究和优化方法。本文详细分析了GPU架构和CUDA的相关理论知识,对数字图像的并行化进行了研究分析,通过基于GPU的图像二值化算法实验证明了GPU在数字图像并行化研究方面有很明显的优势。设计了GPU的通用计算方法和CUDA架构对人脸表情识别问题的高性能计算方案,基于具有216个流处理器的GTX 260+的GPU对人脸表情识别方法进行并行化实现,在与原CPU算法计算结果精度一致的条件下,利用GPU并行实现效率可提高220倍,实验结果表明基于GPU的高性能计算在人脸表情识别处理方面是非常有效的,可以显著提高计算效率。对GPU共享内存和纹理内存同步块内线程技术进行研究,相对于全局内存而言,纹理内存的存储容量大,能充分满足存储人脸数据的要求,位于GPU片内的共享内存线程间延迟只有全局内存的1/100,线程间访问速度非常快,充分利用本地存储器资源优势是实现线程间通信延迟最小的方法。利用该方法对基于GPU的算法进行优化,解决了GPU线程间延迟问题,可以进一步提高效率,相对CPU计算可提速近700倍,研究结果表明GPU计算对于大规模数据并行计算有强大的适应能力,为提高模式识别效率提供了一种新的途径。