论文部分内容阅读
概念格理论,是在形式背景中进行数据分析和规则提取的强有力工具。在应用概念格理论进行相关领域研究时首先要从所给定领域的形式背景中生成概念并建立格结构。然而在大数据集中进行这些操作非常复杂,因此生成概念并建立概念格算法的效率问题就成为影响该理论应用的关键因素。随着计算机技术的发展,在高性能计算领域出现了众多实现技术,其中NVIDIA公司推出的高性能计算技术CUDA,充分利用了GPU的众核、并行特性来挖掘其潜在的通用计算效能,能够带来较高的性价比,因此得到广泛应用。本文首先介绍了高性能计算技术CUDA的技术原理,概念格的基本理论以及在各个领域的应用情况以及目前所采用的多种概念生成算法,文中重点阐述了概念格生成算法CloseByOne的数学原理,并结合CUDA的技术特点详细分析了采用CUDA对该算法进行并行化的理论可行性。在此基础上,设计并实现了五种基于CUDA的概念生成算法,给出了这五种算法的基本思想和算法描述,最后结合实验数据详细分析了造成算法实现效能未能得到有效提高的因素。尽管本文中提出的五种算法都没有能够实现对概念生成算法加速的效果,然而文中结合CloseByOne算法的结构特点重点分析了影响加速性能的技术因素,对实现基于CUDA的概念格生成算法具有指导意义。