论文部分内容阅读
本文分析了快速X射线数字成像系统的噪声特点和原始的基于图像序列的NL-means降噪算法的不足,提出了一中改进的NL-means图像序列降噪算法。同时,为了解决NL-means降噪算法计算量大、运算速度慢的问题,利用可编程图形处理单元GPU并行计算和高速浮点计算特性,将图像映射为GPU中的纹理,采用多线程并行计算,使得NL-means算法在GPU中加速执行。实验结果表明,改进之后的算法不仅大大降低了算法的计算量,而且有效地抑制了动态DR图像中的量子噪声,提高了图像的分辨率。GPU加速方法可以在不损失图像信息的前提下,实现实时降噪。