论文部分内容阅读
多任务学习是指通过同时学习多个任务来提升算法的泛化性能。总体来说,现有最新的多任务学习算法主要是都通过挖掘任务聚类和异常任务的方式,来提升算法的理论和实际性能。本文将着重研究在上述两种假设条件下的多任务学习算法。首先,考虑在未知任务聚类结构未知的条件下,本文提出了一种灵活的多任务学习算法来实现子空间的任务聚类。具体来说,通过采用满秩的子空间矩阵,并对表示矩阵使用组稀疏和正交约束,使得目标模型仍然位于某个由自动选定的基任务所生成的低维子空间中。最终的优化目标被表示为对于子空间和目标模型的联合优化函数。除了提供算法的理论分析和证明外,与多个优秀算法的比较实验也证明了该方法的有效性和高效性。其次,考虑同时存在任务聚类和异常任务情况下,本文提出了一种鲁棒的多任务学习算法。与通常采用分解方式的鲁棒多任务学习算法不同,本文直接对目标模型采用了混合l11/l21范数的正则化项,并将优化目标表示为一个无约束的非平滑凸优化问题。为了可以更有效地求解目标函数,本文针对上述模型提出了两种优化策略:重加权最小二乘法和加速近端梯度下降算法。严格的泛化性能分析和大量的实验证明了算法的有效性。最后,本文将多任务学习算法应用于区分细分子类的细粒度图像分类问题。通过将每个类的分类器学习看成是多任务学习的一个任务,多类分类分类器的学习就可以转化为同时训练多个分类器的多任务学习问题。为了能够同时自动地发现相似类别的聚类和异常类别,本文提出使用混合l11/l21范数正则化的分类问题,并证明可以通过迭代优化重加权l2的方式求解得到算法的解。在两个细粒度图像分类的标准数据集上的实验证明了算法的有效性。上述三种算法研究的主要目标都是多任务学习。与现有的方法相比,它们不仅能够在实验测试时凸显出更好的性能,同时也具有较好的泛化理论保证。