机器学习-LDA与PCA算法

来源:互联网 发布:mysql索引上创建 编辑:程序博客网 时间:2024/05/21 08:03
Linear Discriminant Analysis
用途:数据预处理中的降维,分类任务
历史:Ronald A. Fisher在1936年提出了线性判别方法
线性判别分析(LDA)
目标:LDA关心的是能够最大化类间区分度的坐标轴成分
将特征空间(数据集中的多维样本)投影到一个维度更小的 k 维子空间中,
同时保持区分类别的信息
 
Linear Discriminant Analysis
原理:投影到维度更低的空间中,使得投影后的点,会形成按类别区分,
一簇一簇的情况,相同类别的点,将会在投影后的空间中更接近方法
线性判别分析(LDA)
 
Linear Discriminant Analysis
监督性:LDA是“有监督”的,它计算的是另一类特定的方向
投影:找到更合适分类的空间
线性判别分析(LDA)
与PCA不同,更关心分类而不是方差
 
数学原理
原始数据:                                      变换数据:
目标:找到该投影
线性判别分析(LDA)
 
Linear Discriminant Analysis
LDA分类的一个目标是使得不同类别之间的距离越远越好,
同一类别之中的距离越近越好
每类样例的均值:
线性判别分析(LDA)
投影后的均值:
投影后的两类样本中心点尽量分离:
 
Linear Discriminant Analysis
只最大化J(w)就可以了?
X1的方向可以最大化J(w),但是却分的不好
线性判别分析(LDA)
散列值:样本点的密集程度,值越大,越分散,反之,越集中
同类之间应该越密集些:
 
Linear Discriminant Analysis
目标函数:
散列值公式展开:
线性判别分析(LDA)
散列矩阵(scatter matrices):
类内散布矩阵 Sw = S1+S2:
 
Linear Discriminant Analysis
目标函数:
分子展开:
线性判别分析(LDA)
阅读全文
0 0
原创粉丝点击