![人工智能:模式识别](https://wfqqreader-1252317822.image.myqcloud.com/cover/23/33381023/b_33381023.jpg)
2.1 主成分分析
主成分分析(Principal Component Analysis,PCA),也称主分量分析,或K-L变换(Karhunen-Loeve Transform)[1]。下面对PCA方法进行介绍。
2.1.1 基本概念
设X为一个N维随机向量,St为X的N×N协方差矩阵:
![](https://epubservercos.yuewen.com/9974CD/17829663608312006/epubprivate/OEBPS/Images/39215_30_1.jpg?sign=1738851245-SYakyFlBX7iK4Q0mRIVzmVUMv448IzRY-0-c84deddb204a83ec179d53068b90f926)
式中,E(X)是随机向量X的数学期望。该协方差矩阵也称总体散布矩阵。容易证明St为非负定矩阵。
给定一组M个N维训练样本X1,…,XM,则St的估计为
![](https://epubservercos.yuewen.com/9974CD/17829663608312006/epubprivate/OEBPS/Images/39215_30_2.jpg?sign=1738851245-fOQ4ti1RMIAlBkD3RNoDdwfO2VNVl5PL-0-a26601289f1f3aca425710747a7e83f9)
式中,m0为训练样本的均值向量,即
![](https://epubservercos.yuewen.com/9974CD/17829663608312006/epubprivate/OEBPS/Images/39215_30_3.jpg?sign=1738851245-FPnLFL7VhKgjXK0xta0kJvUJI9WjEw1T-0-f51fff197a8ba26169a696c47f0c7f96)
寻求一组标准正交且使得以下准则函数达到极值的向量ϕ作为投影轴:
![](https://epubservercos.yuewen.com/9974CD/17829663608312006/epubprivate/OEBPS/Images/39215_30_4.jpg?sign=1738851245-5eLB3o1My5BGQqTEvwAV481N20fakWxZ-0-3843ad0cbb0f1768e07ff61b7d84bf56)
其物理意义是使投影后所得特征的总体散布量最大。就每一个投影轴而言,模式样本在该轴上投影后,投影点的方差最大。
事实上,这一组最优投影轴应取为St的d个最大特征值所对应的标准正交的特征向量ϕ1,…,ϕd。令Φ=(ϕ1,…,ϕd),则PCA变换如下:
![](https://epubservercos.yuewen.com/9974CD/17829663608312006/epubprivate/OEBPS/Images/39215_31_1.jpg?sign=1738851245-Q8KUZBuEV8eWJOvhvZEezrhUP44vTvb0-0-1592a39aa227feacabb52024e57a0288)
Y作为X的特征表示,用于后续的分类或其他任务。从几何上讲,PCA变换是一个坐标变换,即Y是原始的模式向量X在一个新的、由标准正交的特征向量ϕ1,…,ϕd构成的坐标系中的坐标。
2.1.2 最小均方误差逼近
PCA变换是最小均方误差逼近意义下的最优表示。
设ϕ1,…,ϕd,…,ϕN为St的一组标准正交的特征向量,对应的特征值满足λ1≥…≥λd≥…≥λN。由式(2-4)可得
![](https://epubservercos.yuewen.com/9974CD/17829663608312006/epubprivate/OEBPS/Images/39215_31_2.jpg?sign=1738851245-FIyBWiDwBkmrQzKlebLD0cdGUxM873VE-0-8dff1036cfd344cb9a1ee98e6ff816b5)
易证明,是零均值随机向量X在最小均方误差逼近意义下的最优表示,换言之,它表示的均方误差
比采用其他任何正交系统的d个坐标来展开X所引起的均方误差都要小。
一般地,模式X的样本均值m0未必为0,PCA变换式(2-4)可以修改如下:
![](https://epubservercos.yuewen.com/9974CD/17829663608312006/epubprivate/OEBPS/Images/39215_31_5.jpg?sign=1738851245-EFEM2pHQE5Xk6NObwwVam8KfN9YF10Gr-0-cec5a5a4c3169067a013625e83437fb8)
模式样本X可以在最小均方误差逼近意义下重构如下:
![](https://epubservercos.yuewen.com/9974CD/17829663608312006/epubprivate/OEBPS/Images/39215_31_6.jpg?sign=1738851245-ilzpO2PjAqjnm8cOiUm6ScD0y1l1IVC5-0-b61275243d9e5a479ce40741c58fa622)
式中,,i=1,…,d。
2.1.3 PCA变换的统计不相关性
PCA变换后,模式样本的PCA特征分量之间是统计不相关的。
设线性变换Y=ΦTX,其中,Φ=(ϕ1,…,ϕd),ϕ1,…,ϕd为PCA的一组最优投影轴。原始特征向量X变换为Y=(y1,…,yd)T,其第i个分量为,i=1,…,d。则yi与yj之间的协方差为
![](https://epubservercos.yuewen.com/9974CD/17829663608312006/epubprivate/OEBPS/Images/39215_32_1.jpg?sign=1738851245-tUZRvlsXoczs6N995z0rrLOyvJvVUq22-0-1b535c2a398009f31b6f6e20899c4a5c)
故yi与yj的统计相关系数可表达为
![](https://epubservercos.yuewen.com/9974CD/17829663608312006/epubprivate/OEBPS/Images/39215_32_2.jpg?sign=1738851245-Ts292mBz39904egTjXCaNyXQJQdCHuYZ-0-8ad9998fe5f4734adbde532327dba740)
由于ϕ1,…,ϕd为St的标准正交的特征向量,,i≠j。故ρ(yi,yj)=0,i≠j,即PCA变换后,模式样本的特征分量之间是统计不相关的。
2.1.4 小样本情况下的主成分分析
在训练样本的总数M小于训练样本的维数N的情况下,为了提高计算效率,常常借助于奇异值分解定理间接地求解St的特征向量。具体做法介绍如下[1,2]。
定理2-1 (奇异值分解定理)设A是一个秩为r的N×M矩阵,则存在两个正交矩阵
U=[u1,…,ur]∈RN×r, UTU=I
和
V=[v1,…,vr]∈RM×r,VTV=I
以及对角矩阵
Λ=diag[λ1,λ2,…,λr]∈Rr×r,λ1≥λ2≥…≥λr>0
使得
![](https://epubservercos.yuewen.com/9974CD/17829663608312006/epubprivate/OEBPS/Images/39215_32_4.jpg?sign=1738851245-8sTi8EIpY93CNUDd0c1oAt9g4R7HiVyt-0-fe96066c095f42b27216b7b2a7075c75)
上述分解称为矩阵A的奇异值分解,为A的奇异值。
由定理2-1,易得出以下结论,即推论2-1。
推论2-1λi为AAT和ATA非零特征值,ui和vi分别为AAT和ATA对应于λi的特征向量,且满足
![](https://epubservercos.yuewen.com/9974CD/17829663608312006/epubprivate/OEBPS/Images/39215_32_6.jpg?sign=1738851245-IIIvPwi2U7pG60KFgI8CiVotaC60NV3u-0-908deb357844d0e58a4cd730f74dead8)
式(2-10)写成矩阵形式为。
在主成分分析方法中,对于总体散布矩阵St,令A=[X1-m0,X2-m0,…,XM-m0],则有
![](https://epubservercos.yuewen.com/9974CD/17829663608312006/epubprivate/OEBPS/Images/39215_33_2.jpg?sign=1738851245-8V5TumbyqxIx4GLNwvYXBEfOihDcK1Sb-0-91bfacb43b699812182b603cd54c9752)
当N>M时,可以先求出矩阵所对应的特征值和特征向量,然后利用式(2-10)算出St的特征向量,从而降低直接求解的计算复杂度。