论文部分内容阅读
支持向量机(Support vector machines;SVM)是Vapnik等人根据统计学习理论提出的一种机器学习方法.它是建立在VC维和结构风险最小化原则基础上的,利用核函数把非线性可分数据映射到高维特征空间,使其在高维特征空间中线性可分.同时,利用核函数计算内积可避免“维数灾难”.由于支持向量机具有较好的泛化性和学习性能,该技术已成为机器学习的研究热点,并在很多领域得到成功应用,如模式识别、图像分类、预测等方面.
但是,作为一种尚未成熟的新技术,支持向量机目前存在着许多局限.客观世界存在大量的模糊信息,如果支持向量机的训练集中含有噪声或野点时,这些含有“异常”信息的样本在特征空间中常常位于分类面附近,导致获得的分类面不是真正的最优分类面.针对这种情况,台湾学者Lin等提出了模糊支持向量机(Fuzzy supportvector machines;FSVM),根据不同输入样本对分类的贡献不同,赋予不同的隶属度,将噪声或野点与有效样本区分开.
针对两类分类问题中样本点数量多,类别模糊且有孤立野点的情况,本文提出了去边缘模糊支持向量机.该方法用一类分类思想,预先去掉那些可能不是支持向量的点,并引入了模糊隶属度计算公式,使其适合模糊分类的性能特点.本文首先对支持向量机的构造原理和基础理论进行分析和研究.其次,对模糊支持向量机进行论述,并在此基础上提出一种基于一类分类算法的去边缘模糊支持向量机.最后,从理论和实证分析两个方面将该方法与一般的模糊支持向量机进行了对比分析.实验结果表明:该方法不但大大减少了训练点数目,从而减少了内存和计算量,还提高了训练速度和分类准确率.