CS229 6.6 Neurons Networks PCA主成分分析

时间:2021-07-17 19:43:09

主成分分析(PCA)是一种经典的降维算法,基于基变换,数据原来位于标准坐标基下,将其投影到前k个最大特征值对应的特征向量所组成的基上,使得数据在新基各个维度有最大的方差,且在新基的各个维度上数据是不相关的,PCA有几个关键的点:

1)归一化均值与方差,均值归一化后便于计算,方差归一化后便于对各个维度进行比较

2)新基为正交基,即各个坐标轴是相互独立的(可理解为垂直),只需要取新基上取方差最大的前几个维度即可

3)PCA的前提是只对服从高斯分布的数据特征提取效果较好,这就大大限制了它的应用范围。如果数据呈任意分布,那么不论在原始空间中如何做正交变换,都不可能找到一组最优的特征方向,找到所谓的“主分量”也就不能表达数据的特征结构了(比如说数据呈现正方形)。

引入

假设有一条淘宝物品记录,格式如下:

( 浏览量, 访客数, 下单数, 成交数, 成交金额)

这五个属性可以代表五个维度,分别对应坐标系中的五个坐标轴(基),给定在这组基上的一组样本点:

(500,240,25,13,2312.15)T

可以看到这就是一条物品的记录,五个维度的计算并不复杂,但当处理的数据的维度上万,甚至十万、百万时,(比如1000*1000的图片)这种情况下会带来非常大的计算量,所以有必要对数据进行降维。降维意味着信息的丢失,比如对于以上数据,去掉下成交金额这一个维度,将丢失很多关于物品的信息,所以PCA只能尽量避免信息的丢失。

相关性:维度教高的数据在某几个维度间两辆一般会存在一些相关性,比如如上的浏览量与访客数往往成正比关系,这种情况下去掉其中一个维度,往往不会丢失太多信息。以上给出的只是直观的描述,我们到底删除哪一列损失的信息才最小?亦或根本不是单纯删除几列,而是通过某些变换将原始数据变为更少的列但又使得丢失的信息最小?到底如何度量丢失信息的多少?如何根据原始数据决定具体的降维操作步骤?

线性代数基础

下面先来看一个高中就学过的向量运算:内积。两个维数相同的向量的内积被定义为:

CS229  6.6 Neurons Networks PCA主成分分析

内积运算会将向量映射为实数,下面看内积的几何意义,二维向量A,B,其中A=(x1,y1),B=(x2,y2),

CS229  6.6 Neurons Networks PCA主成分分析

现在从A点向B所在直线引一条垂线。这条垂线与B的交点叫做A在B上的投影,再设A与B的夹角是a,则投影的矢量长度为CS229  6.6 Neurons Networks PCA主成分分析,其中CS229  6.6 Neurons Networks PCA主成分分析,是线段A的长度

把内积表示为一种熟悉的形式有:

CS229  6.6 Neurons Networks PCA主成分分析

A与B的内积等于A到B的投影长度乘以B的模。再进一步,如果我们假设B的模为1,即让|B|=1,那么就变成了:

CS229  6.6 Neurons Networks PCA主成分分析

也就是说,设向量B的模为1,则A与B的内积值等于A向B所在直线投影的矢量长度

再来看基的概念,我们对二维平面上的向量(x,y)非常熟悉,如以上的A、B就是两个向量,仔细看就知道(x,y)分别表示在x轴上的投影为x,在y周上的投影为y。也就是说这里有一个隐含定义,现在分别取x轴正向、y轴正向一个模为1的向量,向量(x,y)分别在x轴投影为x,在y轴投影为y,注意投影也为矢量。准确的表示为向量x,y的线性组合:

CS229  6.6 Neurons Networks PCA主成分分析

此时(1,0)T与(0,1)T可以称作向量的一组基。

CS229  6.6 Neurons Networks PCA主成分分析

所以要准确描述向量,首先要给定一组基,然后给向量在基的各个直线上的投影即可。标准坐标系下经常忽略第一步以(1,0)和(0,1)为基。

例如,(1,1)和(-1,1)也可以成为一组基。一般来说,我们希望基的模是1,因为从内积的意义可以看到,如果基的模是1,那么就可以方便的用向量点乘基而直接获得其在新基上的坐标了!实际上,对应任何一个向量我们总可以找到其同方向上模为1的向量,只要让两个分量分别除以模就好了。上面的基就可以变为CS229  6.6 Neurons Networks PCA主成分分析

现在,我们想获得(3,2)在新基上的坐标,即在两个方向上的投影矢量值,那么根据内积的几何意义,我们只要分别计算(3,2)和两个基的内积,可以得到新基的坐标为:CS229  6.6 Neurons Networks PCA主成分分析,下图给出点(3,2)在新基的图:

CS229  6.6 Neurons Networks PCA主成分分析

另外这里要注意的是,例子中的基都是正交的(即内积为0,或直观说相互垂直),但可以成为一组基的唯一要求就是线性无关,非正交的基也是可以的。不过因为正交基有较好的性质,所以一般使用的基都是正交的。

下面我们找一种简便的方式来表示基变换。还是拿上面的例子,想一下,将(3,2)变换为新基上的坐标,就是用(3,2)与第一个基做内积运算,作为第一个新的坐标分量,然后用(3,2)与第二个基做内积运算,作为第二个新坐标的分量。实际上,我们可以用矩阵相乘的形式简洁的表示这个变换:

CS229  6.6 Neurons Networks PCA主成分分析

于是一组向量的基变换被干净的表示为矩阵的相乘。

一般的,如果我们有M个N维向量,想将其变换为由R个N维向量表示的新空间中,那么首先将R个基按行组成矩阵A,然后将向量按列组成矩阵B,那么两矩阵的乘积AB就是变换结果,其中AB的第m列为A中第m列变换后的结果

CS229  6.6 Neurons Networks PCA主成分分析

特别要注意的是,这里R可以小于N,而R决定了变换后数据的维数。也就是说,我们可以将一N维数据变换到更低维度的空间中去,变换后的维度取决于基的数量。因此这种矩阵相乘的表示也可以表示降维变换。

最后,上述分析同时给矩阵相乘找到了一种物理解释:两个矩阵相乘的意义是将右边矩阵中的每一列列向量变换到左边矩阵中每一行行向量为基所表示的空间中去。更抽象的说,一个矩阵可以表示一种线性变换。很多同学在学线性代数时对矩阵相乘的方法感到奇怪,但是如果明白了矩阵相乘的物理意义,其合理性就一目了然了。

根据以上的基变换可以看出,如果给定一组新基,其维度小于向量本身的维度,则变换后的数据就是原始数据再新基中的地维表示,降维的目的就达到了,但对于PCA还有一个问题:即如何选取一组合理的基以最大化的保留原始信息?

先看一个例子,对于五条二维数据:

(1 ,1) (1 ,3) (2, 3) (4 ,4) (2 ,4)

将其表示为矩阵形式:

CS229  6.6 Neurons Networks PCA主成分分析

为了便于处理,把每个维度的的数据都减去对应维度的均值,这样每个维度均变为0均值。

CS229  6.6 Neurons Networks PCA主成分分析

可以看到,归一化为0均值后(注意,省略了方差归一化的步骤,因为数据在两个维度方差相同),样本在直角坐标系的图为

CS229  6.6 Neurons Networks PCA主成分分析

要把如上数据降低为1维,如何找到一个新的方向,使得信息尽可能不丢失呢?直观的做法是,投影后的点尽量分散,这种分散程度,可以用方差来度量,方差的公式如下:

CS229  6.6 Neurons Networks PCA主成分分析

对于每个维度都变化为0均值后,方差可以表示为:

CS229  6.6 Neurons Networks PCA主成分分析

于是问题转变为,寻找一组基,使得数据变化到这组基之后,方差最大。

对于n维数据降低到k维时,为了让两个维度尽可能多的保留初始信息,他们之间应该是独立的,不相关的,因为相关代表两个维度间存在冗余信息,对于均值归一化为0之后的数据,度量两个维度的相关性可以用协方差来表示:

CS229  6.6 Neurons Networks PCA主成分分析

当协方差为0时,表示两个字段完全独立。为了让协方差为0,我们选择第二个基时只能在与第一个基正交的方向上选择。因此最终选择的两个方向一定是正交的。

至此,我们得到了降维问题的优化目标:将一组N维向量降为K维(K大于0,小于N),其目标是选择K个单位(模为1)正交基,使得原始数据变换到这组基上后,各字段两两间协方差为0,而字段的方差则尽可能大(在正交的约束下,取最大的K个方差)

根据以上推倒,需要将协方差矩阵对角化,使得数据每个维度本身之间有最大的方差,而两两维度之间的协方差为0,即尽最大量减少数据的冗余,假设变化后的数据为Y,协方差矩阵为D,D为一个对角阵,且主对线线元素按大小排列,原始数据X的协方差矩阵为C,D与C的关系如下:

CS229  6.6 Neurons Networks PCA主成分分析

现在事情很明白了!我们要找的P不是别的,而是能让原始协方差矩阵对角化的P。

换句话说,优化目标变成了寻找一个矩阵P,满足PCPT是一个对角矩阵,并且对角元素按从大到小依次排列,那么P的前K行就是要寻找的基,用P的前K行组成的矩阵乘以X就使得X从N维降到了K维并满足上述优化条件

由上文知道,协方差矩阵C是一个是对称矩阵,在线性代数上,实对称矩阵有一系列非常好的性质:

1)实对称矩阵不同特征值对应的特征向量必然正交。

2)设特征向量λλ重数为r,则必然存在r个线性无关的特征向量对应于λ,因此可以将这r个特征向量单位正交化。

CS229  6.6 Neurons Networks PCA主成分分析

其中Λ为对角矩阵,其对角元素为各特征向量对应的特征值(可能有重复)。

到这里,我们发现我们已经找到了需要的矩阵P:

CS229  6.6 Neurons Networks PCA主成分分析

P是协方差矩阵的特征向量单位化后按行排列出的矩阵,其中每一行都是C的一个特征向量。如果设P按照ΛΛ中特征值的从大到小,将特征向量从上到下排列,则用P的前K行组成的矩阵乘以原始数据矩阵X,就得到了我们需要的降维后的数据矩阵Y。

假设现在输入数据集表示为 CS229  6.6 Neurons Networks PCA主成分分析 ,维度 CS229  6.6 Neurons Networks PCA主成分分析 即 CS229  6.6 Neurons Networks PCA主成分分析 。假设我们想把数据从2维降到1维。(在实际应用中,我们也许需要把数据从256维降到50维;在这里使用低维数据,主要是为了更好地可视化算法的行为)。下图为数据集:

CS229  6.6 Neurons Networks PCA主成分分析

这些数据已经进行了预处理,使得每个特征 CS229  6.6 Neurons Networks PCA主成分分析 和 CS229  6.6 Neurons Networks PCA主成分分析 具有相同的均值(零)和方差。预处理的方式如下:

CS229  6.6 Neurons Networks PCA主成分分析

注意:这里1,2步是把数据各个维度的均值归一到0,而3,4步是把数据的方差归一为单位方差,这样各个维度间即可进行合理比较,否则数据各个维度规模不一致会导致方差的规模不一致(对于一些数据比如灰度图像,其在各个维度上的取值均为0-255之间的数值,所以对其进行方差归一化没有必要的,可以省略3,4步),为了使数据方差最大化,且降低数据之间的相关性,根据之前的分析,可以得到以下两个方向,根据图中显示,CS229  6.6 Neurons Networks PCA主成分分析 是数据变化的主方向,而 CS229  6.6 Neurons Networks PCA主成分分析 是次方向。

CS229  6.6 Neurons Networks PCA主成分分析

也就是说,数据在 CS229  6.6 Neurons Networks PCA主成分分析 方向上的变化要比在 CS229  6.6 Neurons Networks PCA主成分分析 方向上大。为更形式化地找出方向 CS229  6.6 Neurons Networks PCA主成分分析 和 CS229  6.6 Neurons Networks PCA主成分分析 ,首先计算出矩阵 CS229  6.6 Neurons Networks PCA主成分分析 ,如下所示:

CS229  6.6 Neurons Networks PCA主成分分析

假设数据为三维,其协方差矩阵 CS229  6.6 Neurons Networks PCA主成分分析 为:

CS229  6.6 Neurons Networks PCA主成分分析

注意协方差矩阵的计算,CS229  6.6 Neurons Networks PCA主成分分析,对于均值归一化后,直接在对应维度上相乘即可,先计算出协方差矩阵CS229  6.6 Neurons Networks PCA主成分分析的特征向量,按列排放,而组成矩阵CS229  6.6 Neurons Networks PCA主成分分析

CS229  6.6 Neurons Networks PCA主成分分析

在本例中,向量 CS229  6.6 Neurons Networks PCA主成分分析 和 CS229  6.6 Neurons Networks PCA主成分分析 构成了一个新基,可以用来表示数据。令 CS229  6.6 Neurons Networks PCA主成分分析 为训练样本,那么 CS229  6.6 Neurons Networks PCA主成分分析 就是样本点 CS229  6.6 Neurons Networks PCA主成分分析 在维度 CS229  6.6 Neurons Networks PCA主成分分析 上的投影的长度(幅值)。同样的, CS229  6.6 Neurons Networks PCA主成分分析 是 CS229  6.6 Neurons Networks PCA主成分分析 投影到 CS229  6.6 Neurons Networks PCA主成分分析 维度上的长度(幅值)。

至此,我们可以把 CS229  6.6 Neurons Networks PCA主成分分析 用 CS229  6.6 Neurons Networks PCA主成分分析 基表达为:

CS229  6.6 Neurons Networks PCA主成分分析

CS229  6.6 Neurons Networks PCA主成分分析 即为在新基下的坐标,在新基上,数据的方差可以表示为:

对数据集中的每个样本 CS229  6.6 Neurons Networks PCA主成分分析 分别进行旋转: CS229  6.6 Neurons Networks PCA主成分分析 for every CS229  6.6 Neurons Networks PCA主成分分析 ,然后把变换后的数据 CS229  6.6 Neurons Networks PCA主成分分析 显示在坐标图上,可得:

CS229  6.6 Neurons Networks PCA主成分分析

这就是把训练数据集旋转到 CS229  6.6 Neurons Networks PCA主成分分析CS229  6.6 Neurons Networks PCA主成分分析 基后的结果。一般而言,运算 CS229  6.6 Neurons Networks PCA主成分分析 表示旋转到基 CS229  6.6 Neurons Networks PCA主成分分析,CS229  6.6 Neurons Networks PCA主成分分析, ...,CS229  6.6 Neurons Networks PCA主成分分析 之上的训练数据。矩阵 CS229  6.6 Neurons Networks PCA主成分分析 有正交性,即满足CS229  6.6 Neurons Networks PCA主成分分析 ,所以若想将旋转后的向量 CS229  6.6 Neurons Networks PCA主成分分析 还原为原始数据 CS229  6.6 Neurons Networks PCA主成分分析 ,将其左乘矩阵CS229  6.6 Neurons Networks PCA主成分分析即可: CS229  6.6 Neurons Networks PCA主成分分析 , 验算一下: CS229  6.6 Neurons Networks PCA主成分分析.

数据的主方向就是旋转数据的第一维 CS229  6.6 Neurons Networks PCA主成分分析 。因此,若想把这数据降到一维,可令:

CS229  6.6 Neurons Networks PCA主成分分析

更一般的,假如想把数据 CS229  6.6 Neurons Networks PCA主成分分析 降到 CS229  6.6 Neurons Networks PCA主成分分析 维表示 CS229  6.6 Neurons Networks PCA主成分分析 (令 CS229  6.6 Neurons Networks PCA主成分分析 ),只需选取 CS229  6.6 Neurons Networks PCA主成分分析 的前 CS229  6.6 Neurons Networks PCA主成分分析 个成分,分别对应前 CS229  6.6 Neurons Networks PCA主成分分析 个数据变化的主方向。

PCA的另外一种解释是:CS229  6.6 Neurons Networks PCA主成分分析 是一个 CS229  6.6 Neurons Networks PCA主成分分析 维向量,其中前几个成分可能比较大(例如,上例中大部分样本第一个成分 CS229  6.6 Neurons Networks PCA主成分分析 的取值相对较大),而后面成分可能会比较小(例如,上例中大部分样本的 CS229  6.6 Neurons Networks PCA主成分分析 较小)。

PCA算法做的其实就是丢弃 CS229  6.6 Neurons Networks PCA主成分分析 中后面(取值较小)的成分,就是将这些成分的值近似为零。具体的说,设 CS229  6.6 Neurons Networks PCA主成分分析 是 CS229  6.6 Neurons Networks PCA主成分分析 的近似表示,那么将 CS229  6.6 Neurons Networks PCA主成分分析 除了前CS229  6.6 Neurons Networks PCA主成分分析 个成分外,其余全赋值为零,就得到:(这里CS229  6.6 Neurons Networks PCA主成分分析 与 CS229  6.6 Neurons Networks PCA主成分分析 分别表示样本向量)

CS229  6.6 Neurons Networks PCA主成分分析

在本例中,可得 CS229  6.6 Neurons Networks PCA主成分分析 的点图如下(取 CS229  6.6 Neurons Networks PCA主成分分析 ):

CS229  6.6 Neurons Networks PCA主成分分析

然而,由于上面 CS229  6.6 Neurons Networks PCA主成分分析 的后CS229  6.6 Neurons Networks PCA主成分分析项均为零,没必要把这些零项保留下来。所以,我们仅用前 CS229  6.6 Neurons Networks PCA主成分分析 个(非零)成分来定义 CS229  6.6 Neurons Networks PCA主成分分析 维向量 CS229  6.6 Neurons Networks PCA主成分分析 。

这也解释了为什么以 CS229  6.6 Neurons Networks PCA主成分分析 为基来表示数据:要决定保留哪些成分变得很简单,只需取前 CS229  6.6 Neurons Networks PCA主成分分析 个成分即可。得到了原始数据 CS229  6.6 Neurons Networks PCA主成分分析 的低维“压缩”表征量 CS229  6.6 Neurons Networks PCA主成分分析 , 反过来,如果给定 CS229  6.6 Neurons Networks PCA主成分分析 ,应如何还原原始数据 CS229  6.6 Neurons Networks PCA主成分分析 呢? CS229  6.6 Neurons Networks PCA主成分分析 的基为要转换回来,只需 CS229  6.6 Neurons Networks PCA主成分分析 即可。把 CS229  6.6 Neurons Networks PCA主成分分析 看作将 CS229  6.6 Neurons Networks PCA主成分分析 的最后 CS229  6.6 Neurons Networks PCA主成分分析 个元素被置0所得的近似表示,给定 CS229  6.6 Neurons Networks PCA主成分分析 ,可以通过在其末尾添加 CS229  6.6 Neurons Networks PCA主成分分析 个0来得到对 CS229  6.6 Neurons Networks PCA主成分分析 的近似,最后,左乘 CS229  6.6 Neurons Networks PCA主成分分析 便可近似还原出原数据 CS229  6.6 Neurons Networks PCA主成分分析 。计算如下:

CS229  6.6 Neurons Networks PCA主成分分析

如下即为重构为原来基坐标下的点:

CS229  6.6 Neurons Networks PCA主成分分析

在PCA中有一个问题是主成分数K的选取,K的取值过大数据压缩效率不高,K的取值过小,数据信息丢失就会严重。决定K值得选取通常会考虑k的方差百分比,如果 CS229  6.6 Neurons Networks PCA主成分分析 ,那么我们得到的是对数据的完美近似,也就是保留了100%的方差,即原始数据的所有变化都被保留下来;相反,如果 CS229  6.6 Neurons Networks PCA主成分分析 ,那等于是使用零向量来逼近输入数据,也就是只有0%的方差被保留下来。

一般而言,设 CS229  6.6 Neurons Networks PCA主成分分析 表示 CS229  6.6 Neurons Networks PCA主成分分析 的特征值(按由大到小顺序排列),使得 CS229  6.6 Neurons Networks PCA主成分分析 为对应于特征向量 CS229  6.6 Neurons Networks PCA主成分分析 的特征值。即 CS229  6.6 Neurons Networks PCA主成分分析 投影后第j个维度的方差。保留前 CS229  6.6 Neurons Networks PCA主成分分析 个成分,则保留的方差百分比可计算为:

CS229  6.6 Neurons Networks PCA主成分分析

在上面简单的二维实验中,CS229  6.6 Neurons Networks PCA主成分分析 ,CS229  6.6 Neurons Networks PCA主成分分析 。因此,如果保留 CS229  6.6 Neurons Networks PCA主成分分析 个主成分,等于我们保留了 CS229  6.6 Neurons Networks PCA主成分分析 ,即91.3%的方差。

容易证明,CS229  6.6 Neurons Networks PCA主成分分析 。因此,如果 CS229  6.6 Neurons Networks PCA主成分分析 ,则说明 CS229  6.6 Neurons Networks PCA主成分分析 也就基本上接近于0,所以用0来近似它并不会产生多大损失。这也解释了为什么要保留前面的主成分(对应的 CS229  6.6 Neurons Networks PCA主成分分析 值较大)而不是末尾的那些。 这些前面的主成分 CS229  6.6 Neurons Networks PCA主成分分析 变化性更大,取值也更大,如果将其设为0势必引入较大的近似误差。

以处理图像数据为例,一个惯常的经验法则是选择 CS229  6.6 Neurons Networks PCA主成分分析 以保留99%的方差,换句话说,我们选取满足以下条件的最小 CS229  6.6 Neurons Networks PCA主成分分析 值:

CS229  6.6 Neurons Networks PCA主成分分析

对其它应用,如不介意引入稍大的误差,有时也保留90-98%的方差范围。若向他人介绍PCA算法详情,告诉他们你选择的 CS229  6.6 Neurons Networks PCA主成分分析 保留了95%的方差,比告诉他们你保留了前120个(或任意某个数字)主成分更好理解。

协方差矩阵为PCA变换后数据在新基上的方差,取前K个特征值对应前K维最大的方差方向,且数据在新基的方向为特征值对应的特征向量方向:

CS229  6.6 Neurons Networks PCA主成分分析

中间那部分很熟悉啊,不就是样本特征的协方差矩阵么(CS229  6.6 Neurons Networks PCA主成分分析的均值为0,一般协方差矩阵都除以m-1,这里用m)。用CS229  6.6 Neurons Networks PCA主成分分析来表示CS229  6.6 Neurons Networks PCA主成分分析CS229  6.6 Neurons Networks PCA主成分分析表示CS229  6.6 Neurons Networks PCA主成分分析,那么上式写作,CS229  6.6 Neurons Networks PCA主成分分析由于u是单位向量,即CS229  6.6 Neurons Networks PCA主成分分析,上式两边都左乘u得,CS229  6.6 Neurons Networks PCA主成分分析,即CS229  6.6 Neurons Networks PCA主成分分析CS229  6.6 Neurons Networks PCA主成分分析就是CS229  6.6 Neurons Networks PCA主成分分析的特征值,u是特征向量。最佳的投影直线是特征值CS229  6.6 Neurons Networks PCA主成分分析最大时对应的特征向量,其次是CS229  6.6 Neurons Networks PCA主成分分析第二大对应的特征向量,依次类推。因此,我们只需要对协方差矩阵进行特征值分解,得到的前k大特征值对应的特征向量就是最佳的k维新特征,而且这k维新特征是正交的。得到前k个u以后,样例CS229  6.6 Neurons Networks PCA主成分分析通过以下变换可以得到新的样本。

CS229  6.6 Neurons Networks PCA主成分分析其中的第j维就是CS229  6.6 Neurons Networks PCA主成分分析CS229  6.6 Neurons Networks PCA主成分分析上的投影。

参考:

1) http://blog.codinglabs.org/articles/pca-tutorial.html

2) UFLDL

3) http://www.cnblogs.com/jerrylead/archive/2011/04/18/2020209.html