论文部分内容阅读
支持向量机(Support Vector Machine, SVM)是由Vapnik等人于上世纪90年代提出的一种崭新的学习机器,它作为统计学习理论的实现方法,是处理小样本学习的有效工具,在模式识别、信号处理、自动化、通讯等领域得到了广泛应用。在不平衡样本集中,不同类别的样本数量上的差异导致分类器性能的下降,所以一直以来不平衡样本集都是机器学习的一个研究热点。在不平衡样本集中寻找SVM的最优参数(又称模型选择)也是SVM研究领域的一个重要分支。实际应用中,分类数据往往是非平衡数据,少数类别的数据可能有很大的分类代价。分类性能不仅要考虑分类精度,同时要考虑分类代价。本文主要研究了非平衡SVM中参数的优化选取问题。SVM在各行各业中的应用已经取得了良好的效果,SVM的参数选取是SVM研究中的重要问题,参数选取的不同,对SVM的泛化性能影响很大。非平衡SVM的参数优化选取的研究较少,本文针对非平衡问题,建立了参数选取的模型,设计了算法,并进行了相关实验。本文扩展了SVM学习方法,对于以高斯核为核函数时的少数类和多数类使用不同的惩罚参数C+、C-以获得高敏感度的超平面,利用遗传算法对SVM的学习参数进行优化调整。同时,通过改进评价函数,对分类结果的质量进行评价。实验结果表明,算法对于非平衡数据的分类有较好分类结果,对少数类样本预测的准确性较高。