论文部分内容阅读
基于非同分布抽样的回归学习算法是核回归学习的一个重要分支。国际著名学习理论专家S.Smale和D.X.Zhou针对非同分布抽样提出边缘分布收敛假设(MDCA),但由于抽样的边缘分布与回归学习的一致性本质上没有直接联系,而只是通过样本点的分布信息影响算法的收敛速率。因此,我们提出一种更一般的关于非同分布抽样的边缘分布条件,在此基础上我们利用积分算子和样本算子的技巧,适当的对误差进行分解,证明了非同分布抽样的最小二乘正则化核网络学习算法和系数正则化核网络学习算法的一致性,得到了回归学习的误差估计和满意的学习速率。本文的主要内容分为如下几部分:第一章介绍了关于学习理论的基础知识和基本研究框架。第二章介绍了正则化核网络回归学习的研究现状,主要有再生核Hilbert空间、正则化核回归学习算法、系数正则化正则化算法等,以及本文研究的主要内容以及一些基本定理和引理。第三章介绍了基于非同分布抽样回归学习算法的一致性分析和研究现状。本章主要介绍了弱相关抽样的回归学习算法以及基于非同分布抽样条件下的回归学习算法的研究现状。第一节主要介绍基于弱相关抽样的回归学习。第二节本节我们主要介绍非同分布抽样。当抽样满足α-强混合条件且α-系数是多项式递减的情况,采取样本算子与积分算子的技巧以及恰当的误差分解,分析了非同分布抽样的最小二乘正则化学习算法和系数正则化学习算法的一致性,得到了回归学习的误差估计和满意的学习速率。第四章介绍了分位点回归学习问题及其研究现状,主要研究ε-不敏感弹球损失函数φτ(ε)(u)的分位点正则化学习算法,给出了算法的目标函数,并对该算法做了初步的分析。第五章总结已完成的工作,并且给出了下一步工作的计划。