论文部分内容阅读
为提高基于格子波尔兹曼(Lattice Boltzmann,LB)模型图像去噪方法的性能,研究了非线性图像扩散LB模型的CUDA算法,即分别利用纹理内存、共享内存以及直接使用全局内存来实现非线性图像扩散LB模型中的迁移过程.利用合成图像和真实图像的去噪实验表明,针对非线性图像扩散LB模型,GPU相对CPU的加速比可达90倍以上;而且加速比的提高与GPU流处理器的数目成正比.