主成分分析PCA

来源:互联网 发布:cms架构图 编辑:程序博客网 时间:2024/05/18 02:03

本文转自:

主成分分析PCA

降维的必要性:

  1.多重共线性–预测变量之间相互关联。多重共线性会导致解空间的不稳定,从而可能导致结果的不连贯。

  2.高维空间本身具有稀疏性。一维正态分布有68%的值落于正负标准差之间,而在十维空间上只有0.02%。

  3.过多的变量会妨碍查找规律的建立。

  4.仅在变量层面上分析可能会忽略变量之间的潜在联系。例如几个预测变量可能落入仅反映数据某一方面特征的一个组内。

降维的目的:

  1.减少预测变量的个数

  2.确保这些变量是相互独立的

  3.提供一个框架来解释结果

  降维的方法有:主成分分析、因子分析、用户自定义复合等。

  PCA(Principal Component Analysis)不仅仅是对高维数据进行降维,更重要的是经过降维去除了噪声,发现了数据中的模式。

  PCA把原先的n个特征用数目更少的m个特征取代,新特征是旧特征的线性组合,这些线性组合最大化样本方差,尽量使新的m个特征互不相关。从旧特征到新特征的映射捕获数据中的固有变异性。
  PCA把原先的n个特征用数目更少的m个特征取代,新特征是旧特征的线性组合,这些线性组合最大化样本方差,尽量使新的m个特征互不相关。从旧特征到新特征的映射捕获数据中的固有变异性。

预备知识

样本X和样本Y的协方差(Covariance):
       这里写图片描述

  协方差为正时说明X和Y是正相关关系,协方差为负时X和Y是负相关关系,协方差为0时X和Y相互独立。
Cov(X,X)就是X的方差(Variance).

  当样本是n维数据时,它们的协方差实际上是协方差矩阵(对称方阵),方阵的边长是这里写图片描述。比如对于3维数据(x,y,z),计算它的协方差就是:
      这里写图片描述

  若这里写图片描述,则称这里写图片描述是A的特征值,X是对应的特征向量。实际上可以这样理解:矩阵A作用在它的特征向量X上,仅仅使得X的长度发生了变化,缩放比例就是相应的特征值这里写图片描述

  当A是n阶可逆矩阵时,A与P1AP相似,相似矩阵具有相同的特征值。

特别地,当A是对称矩阵时,A的奇异值等于A的特征值,存在正交矩阵QQ1=QT,使得:
         这里写图片描述

对A进行奇异值分解就能求出所有特征值和Q矩阵。

这里写图片描述 , D是由特征值组成的对角矩阵

由特征值和特征向量的定义知,Q的列向量就是A的特征向量。

Jama包

  Jama包是用于基本线性代数运算的java包,提供矩阵的cholesky分解、LUD分解、QR分解、奇异值分解,以及PCA中要用到的特征值分解,此外可以计算矩阵的乘除法、矩阵的范数和条件数、解线性方程组等。

PCA过程

  1.特征中心化。即每一维的数据都减去该维的均值。这里的“维”指的就是一个特征(或属性),变换之后每一维的均值都变成了0。
举例
(Ps:因为不知道如何将代码段折叠,所以原始数据就不贴了,详细的可以参考原始博文)
主要步骤为:

  1. 原始数据是150×4的矩阵A。
  2. 每一列减去该列均值后,得到矩阵B。
  3. 2.计算B的协方差矩阵C。
  4. 计算协方差矩阵C的特征值和特征向量。
    C=V*S*V-1
    S=
    4.2248414     0       0       0
    0          0.24224437  0        0
    0          0       0.078524387 0
    0          0       0        0.023681839

    V=0.36158919   0.65654382   -0.58100304   0.3172364 -0.082268924    0.72970845    0.596429220       -0.3240827 0.85657212  -0.17576972 0.  072535217    -0.47971643 0.35884438    -0.074704743    0.54904125    0.75113489
  5. 选取大的特征值对应的特征向量,得到新的数据集
      特征值是由大到小排列的,前两个特征值的和已经超过了所有特征值之和的97%。我们取前两个特征值对应的特征向量,得到一个4×2的矩阵M。令A150×2=A150×4×M4×2,这样我们就把150×4的数据A集映射成了150×2的数据集A’,特征由4个减到了2个。
      
      每个样本正好是二维的,画在平面坐标系中如图:
      这里写图片描述
      鹫尾花数据集共分为3类花(前50个样本为一类,中间50个样本为一类,后50个样本为一类),从上图可以看到把数据集映射到2维后分类会更容易进行,直观上看已经是线性可分的了,下面我们用自组织映射网络对其进行聚类。

      当然我们已知了有3类,所以在设计SOFM网络时,我把竞争层节点数设为3,此时的聚类结果是前50个样本聚为一类,后100个样本聚为一类。当把竞争层节点数改为4时,仅第2类中的3个样本被误分到了第3类中,整体精度达98%!

#include<iostream>#include<fstream>#include<set>#include<cstdlib>#include<vector>#include<cmath>#include<ctime>using namespace std;const int sample_num=150;      //鹫尾花样本个数const int class_num=4;      //指定聚类的数目int iteration_ceil;      //迭代的上限vector<pair<double,double> > flowers(sample_num);      //样本数据vector<vector<double> > weight(class_num);   //权向量const double prime_eta=0.7;     //初始学习率/*向量模长归一化*/void normalize(vector<double> &vec){    double sum=0.0;    for(int i=0;i<vec.size();++i)        sum+=pow(vec[i],2);    sum=sqrt(sum);    for(int i=0;i<vec.size();++i)        vec[i]/=sum;}/*从文件读入鹫尾花样本数据*/void init_sample(string filename){    ifstream ifs(filename.c_str());    if(!ifs){        cerr<<"open data file failed."<<endl;        exit(1);    }    for(int i=0;i<sample_num;++i){        vector<double> X(2);        ifs>>X[0]>>X[1];        normalize(X);       //输入向量模长归一化        flowers[i]=make_pair(X[0],X[1]);    }    ifs.close();}/*初始化权值*/void init_weight(){    srand(time(0));    for(int i=0;i<weight.size();++i){        vector<double> ele(2);        ele[0]=rand()/(double)RAND_MAX;        ele[1]=rand()/(double)RAND_MAX;        normalize(ele);     //权值向量模长归一化        weight[i]=ele;    }}/*根据输入,选择获胜者*/int pick_winner(double x1,double x2){    int rect=-1;    double max=0.0;    for(int i=0;i<weight.size();++i){        double product=x1*weight[i][0]+x2*weight[i][1];        if(product>max){            max=product;            rect=i;        }    }    return rect;}int main(int argc,char *argv[]){    cout<<"input iteration count"<<endl;    int count;      //每个样本迭代的次数    cin>>count;    cout<<"input data file name"<<endl;    string filename;    cin>>filename;    iteration_ceil=count*sample_num;    init_sample(filename);    init_weight();    double eta=prime_eta;    double gradient1=-1*9*prime_eta/iteration_ceil;    double gradient2=-1*prime_eta/(9*iteration_ceil);    double b1=prime_eta;    double b2=prime_eta/9;    for(int iteration=0;iteration<iteration_ceil;++iteration){        int flower_index=iteration%sample_num;        double x1=flowers[flower_index].first;        double x2=flowers[flower_index].second;        int winner=pick_winner(x1,x2);        /*更改获胜者的权值*/        weight[winner][0]+=eta*(x1-weight[winner][0]);        weight[winner][1]+=eta*(x2-weight[winner][1]);        /*权向量归一化*/        for(int i=0;i<weight.size();++i){            vector<double> W(2);            W[0]=weight[i][0];            W[1]=weight[i][1];            normalize(W);            weight[i][0]=W[0];            weight[i][1]=W[1];        }        /*更新学习率*/        if(iteration<0.1*iteration_ceil){   //在前10%的迭代中,学习率线性下降到原来的10%            eta=gradient1*iteration+b1;        }        else{       //后90%的迭代中线性降低到0            eta=gradient2*iteration+b2;        }    }    for(int i=0;i<sample_num;++i){        double x1=flowers[i].first;        double x2=flowers[i].second;        int winner=pick_winner(x1,x2);        cout<<i+1<<"\t"<<winner+1<<endl;    }    return 0;}

  输出聚类结果:(原始数据,中间归一化数据,及结果输出参见原始博文)
原文来自:博客园(华夏35度)http://www.cnblogs.com/zhangchaoyang 作者:Orisun

0 0