论文部分内容阅读
支持向量机是一种很流行的机器学习方法,在许多领域都有了广泛的使用。传统的支持向量机模型是寻求类之间的间隔最大化,而忽视了一个重要的信息—样本的类内结构,类内离散度。文中将Fisher判别分析里面的类内离散度引入到最小二乘支持向量机中,提出了基于类内离散度的最小二乘支持向量机模型。并通过核函数将样本映射到高维特征空间,在特征空间中进行样本分类。基于UCI数据库的数据集实验测试表明,基于类内离散度的最小二乘支持向量机提高了分类的准确度。