PCA详解

来源:互联网 发布:淘宝省钱机器人有诈吗 编辑:程序博客网 时间:2024/06/06 13:16

详见http://blog.csdn.net/zhongkelee/article/details/44064401

第一步 归一化

第二步 求协方差矩阵

第三步 求协方差矩阵的特征值 特征向量

 第四步,将特征值按照从大到小的顺序排序,选择其中最大的k个,然后将其对应的k个特征向量分别作为列向量组成特征向量矩阵。

第五步,将样本点投影到选取的特征向量上。假设样例数为m,特征数为n,减去均值后的样本矩阵为DataAdjust(m*n),协方差矩阵是n*n,选取的k个特征向量组成的矩阵为EigenVectors(n*k)。那么投影后的数据FinalData为

FinalData(10*1) = DataAdjust(10*2矩阵) x 特征向量(-0.677873399, -0.735178656)T


这样就从N维降到了K维,协方差的特征向量就是最理想的k维向量

原创粉丝点击