论文部分内容阅读
本文旨在研究复杂数据的鲁棒建模问题,提出了一种多核稳健回归学习算法(RR-MCC-MK)。一方面在针对一些分布非平坦等情况的数据建模时,核方法中常见的单核方法遇到了挑战;另一方面当样本数据中包含非高斯噪声或异常值时,利用最小二乘方法建立的回归学习算法的性能表现不好,即模型的稳健性较差。因此在本文的设置中,回归学习的假设空间将基于由单核函数的线性组合构造的多核函数构建,回归学习优化策略中的损失函数将由最小二乘方法中的平方损失函数替换为最大相关熵诱导损失函数,在结构风险最小化的框架下建立回归学习算法。提出RR-MCC-MK算法后,本文给出了算法的理论分析。基于一种新的误差分解方法和一些合理的假设条件,通过建立算法的超额误差界得出RR-MCC-MK算法的学习率。两个函数模拟数据集和两个真实数据集上的算法实验评估了RR-MCC-MK算法的表现,实验证明了其较于两种对比算法的优越性。