论文部分内容阅读
本文分别就子空间方法在图像预处理、图像数据稀疏表示和鉴别信息提取方面展开讨论,并应用于人脸图像预处理、人脸图像稀疏表达以及人脸识别。
在图像预处理方面,本文提出了带惩罚性原象学习算法。核主成分分析(KPCA)最近被开始用于图像预处理。与主成分分析(PCA)相比,KPCA在核特征空间实现对数据的线性逼近,并在特征空间中实现图像特征的预处理。然而KPCA变换后的图像特征依然是定义在核特征空间中,而在某些应用中,我们需要得到的是图像数据本身,所以需要学习该特征在图像空间中相应的原象,但是精确的原象往往是不存在的,因此原象学习本身是个病态估计问题。.目前如何设计适当的优化准则以得到更佳的逼近原象值依然是个开放性问题。本文首先提出了一个基于两步法的原象学习框架性算法;然后在提出的框架算法下,进一步发展了带惩罚性原象学习算法,通过运用惩罚性体系来引导原象学习的过程,从而估计出更佳的逼近原象值。最后我们还把原象学习算法应用于人脸图像预处理等问题。
在图像数据稀疏表示方面,本文主要在理论和实验上讨论了各种稀疏约束方法的相互作用,并发展了基于非负成分的稀疏矩阵分解算法。近几年来,非负性成为稀疏特征提取的流行约束方法,然而仍有许多理论或未知问题需要解决:
为什么和什么时候非负性有利于稀疏特征的学习、为什么非负性要同时施加在成分矩阵和系数矩阵上、去掉某个矩阵上的非负性约束对稀疏特征提取有什么影响等。针对这些问题,我们首先建立了一个稀疏矩阵分解的框架性算法。然后在该框架体系下讨论各种约束对稀疏特征提取的影响,并从理论上分析非负性约束的作用和不足之处。此外,针对框架算法的优化问题,本文还提出了基于平缓优化策略的交替式迭代优化过程,从而得到更好的局部最优解。本文在稀疏算法研究方面的另外一个贡献是释放了非负矩阵分解算法中对系数矩阵的非负性约束,并结合其他约束方法,发展了新的稀疏算法。通过理论和实验分析,我们发现这种单边非负矩阵分解算法不但有利于提取(更)稀疏的特征,同时能更好地保证数据描述能力,即避免丢失过多重建信息,而且有更好的识别效用。在鉴别信息提取方面,本文着重研究Fisher鉴别分析(LDA)的小样本问题。本文将LDA的小样本问题分为狭义小样本问题和广义小样本问题,其中狭义小样本问题是指类内协方差矩阵的奇异性问题,而广义小样本问题是指由于样本量不足而造成对LDA中统计量估计的偏差问题。针对LDA的小样本问题,本文有如下的工作,其中第1和第2点针对狭义小样本问题而第3点针对广义小样本问题:
1.理论分析了主成分选择对LDA降维影响,并发展了基于遗传算法主成分选择的LDA算法。首先,我们提出了PCA降维定理,这从数学上证明一定存在一组主成分使得降维后类内协方差矩阵非奇异;同时给出了实际例子说明并不是任意主成分的组合都满足该定理的条件。其次,我们提出了基于遗传算法的主成分选择算法(GA-PCA),并发展了基于GA—PCA降维的LDA算法,即GA—Fisher,及提出了降维后LDA算法的快速计算方式。通过实验,我们发现并不是所有对应于大特征值的主成分都含有比对应于小特征值的主成分多的鉴别信息。适当选取对应于小特征值的主成分,有利于在降维的同时,保留更有用的鉴别信息。
2.在理论和实验上全面比较基于样本向量表示的I.DA(1D-LDA)和基于样本矩阵表示的LDA(2D-LDA)算法。在理论上深入分析了2D-LDA优点和不足之处以及探讨1D-LDA什么时候会比2D-LDA好,并且给出了2D—LDA为贝叶斯最优的充分条件,并将之与1D—LDA的进行比较。大量的实验获得了部分与以往研究不同的实验结论,从而给出了1D-LDA与2D-LDA之间的新看法,同时也对其它二维算法和一维算法之间的比较有一定的启示作用。 3.发展了扰动LDA算法(Perturbation LDA,P-LDA)。本文首次研究了类均值与期望值之间的差异性在Fisher准则中的影响。我们在Fisher准则中引入了扰动分析方法,并在提出的扰动模型上发展了扰动LDA算法。此外,我们还建立了正则化LDA与半扰动模型的联系,并给出了一个快速正则化参数的估计方法。子空间方法