论文部分内容阅读
孪生支持向量回归(Twin Support Vector Regression,TSVR)算法是在Jayadeva等提出的孪生支持向量机(TSVM)基础上的一种新回归算法.其基本思想是构造一对非平行的超平面,它们分别确定目标回归函数的-不敏感上、下界函数,最终目标函数取为上、下界函数的平均值.而简化的孪生支持向量回归(Reduced TwinSupport Vector Regression, RTSVR)算法是通过引入矩形核的概念,将孪生支持向量回归机中的QPP简化.同步研究函数及其导数问题,在很多领域都有广泛应用.本文围绕着如何运用简化的孪生支持向量回归机同步学习函数及其导数这个课题,展开了以下的工作:本文分析了传统的支持向量回归(SVR)和正则化的最小二乘支持向量回归(RLSVR)两种基本的同步学习函数及其导数的方法;研究了将TSVR算法运用到同步学习函数及其导数的问题上,并分别讨论了同时学习单个实变量及多个实变量的实值函数及其导数的问题.分析该算法的学习精度及其收敛性.通过实验比较SVR、RLSVR、TSVR这三种算法的优缺点.大量的实验表明TSVR算法在多于一个变量的回归中较其它两种算法有更好的学习精度,并且在大型数据集中保持了较好的稀疏性.但在大型数据集下,解决QPP产生的巨大计算量使得学习效率低下.本文进一步通过引入矩形核的概念改进了TSVR算法,提出了简化的孪生支持向量回归算法.实验结果表明简化后的新算法有效的减少了训练所耗时间,促进了它在大型数据集情形下的应用.