论文部分内容阅读
深度自编码器通过重构原始输入来进行特征学习,通过预训练和微调解决了深度网络的训练问题,使其拥有较好的泛化能力,因此被广泛应用在很多领域。例如图像处理,自然语言处理等。深度自编码器作为一种典型的无监督学习方法,经常被当作预训练的模型,从而为多层感知器的训练找到了一个较好的初值。近年来,深度自编码器算法得到了广泛和深入的研究,逐渐成为模式识别领域的一个研究热点。图像作为人类感知外界事物的视觉基础,是人类从外界获取信息的重要依据,所以使用深度自编码器自动完成图像的识别和分类具有重大意义。进行图像分类最重要的就是要进行特征提取,由于深度自编码器可以分层抽取特征,因此本文主要对深度自编码器在图像分类上的应用进行了研究。通过对自编码器的算法进行改进,使得预训练过程中得到的分层特征有效地提高了分类能力。主要的研究内容概括如下:(1)针对平滑自编码器中高斯核函数的局部有效性问题,提出了混合核平滑自编码器。算法通过混合核对输入k近邻的权重进行计算,增加了权重的可靠性,更好地学习了特征,从而提高了算法的分类性能。算法还比较了不同形式的混合核对实验结果的影响,结果均表明混合核可以较为有效地提高算法的分类性能。(2)由于无监督的非负约束稀疏自编码器存在特征表达不充分的问题,提出了监督非负约束稀疏自编码器。算法在非负约束稀疏自编码器的基础上,加入了分类预测误差。其在保留连接权重非负约束的同时,使用了样本的监督信息,从而提高了模型的分类能力。此外,在所提模型的基础上研究了非负约束对模型分类能力的影响,提出了另外一种非负约束条件,将这两种非负约束条件进行了比较。较好的实验结果验证了所提算法的有效性。(3)针对传统的自编码器是通过计算原始输入和其重构结果之间的误差来进行模型训练,而没有考虑到重构样本之间的相关性问题。提出了邻域保持自编码器。其在自编码器的基础上,通过寻找重构结果的k近邻并进行加权平均,提高了特征的判别能力。此外,为了更加直观的了解模型的判别性,对隐藏层的输出值进行了可视化。实验结果表明所提算法可以有效地改善模型的分类能力。