降维(PCA 和LDA)
来源:互联网 发布:网络信息安全有哪些 编辑:程序博客网 时间:2024/06/06 19:35
####降维:
'''
当特征选择完成后,可以直接训练模型了,但是可能由于特征矩阵过大,
导致计算量大,训练时间长的问题,
因此降低特征矩阵维度也是必不可少的。
常见的降维方法除了以上提到的基于L1惩罚项的模型以外,
另外还有主成分分析法(PCA)和线性判别分析(LDA),
线性判别分析本身也是一个分类模型。
PCA和LDA有很多的相似点,其本质是要将原始的样本映射到维度更低的样本空间中,
但是PCA和LDA的映射目标不一样:PCA是为了让映射后的样本具有最大的发散性;
而LDA是为了让映射后的样本有最好的分类性能。
所以说PCA是一种无监督的降维方法,而LDA是一种有监督的降维方法。
'''
1.主成分分析法(PCA)
使用decomposition库的PCA类选择特征的代码如下:
from sklearn.decomposition import PCA
#主成分分析法,返回降维后的数据
#参数n_components为主成分数目
PCA(n_components=2).fit_transform(iris.data)
2.线性判别分析法(LDA)
使用lda库的LDA类选择特征的代码如下:
from sklearn.lda import LDA
#线性判别分析法,返回降维后的数据
#参数n_components为降维后的维数
LDA(n_components=2).fit_transform(iris.data, iris.target)
3.回顾:
库 类 说明
decomposition PCA 主成分分析法
lda LDA 线性判别分析法
'''
当特征选择完成后,可以直接训练模型了,但是可能由于特征矩阵过大,
导致计算量大,训练时间长的问题,
因此降低特征矩阵维度也是必不可少的。
常见的降维方法除了以上提到的基于L1惩罚项的模型以外,
另外还有主成分分析法(PCA)和线性判别分析(LDA),
线性判别分析本身也是一个分类模型。
PCA和LDA有很多的相似点,其本质是要将原始的样本映射到维度更低的样本空间中,
但是PCA和LDA的映射目标不一样:PCA是为了让映射后的样本具有最大的发散性;
而LDA是为了让映射后的样本有最好的分类性能。
所以说PCA是一种无监督的降维方法,而LDA是一种有监督的降维方法。
'''
1.主成分分析法(PCA)
使用decomposition库的PCA类选择特征的代码如下:
from sklearn.decomposition import PCA
#主成分分析法,返回降维后的数据
#参数n_components为主成分数目
PCA(n_components=2).fit_transform(iris.data)
2.线性判别分析法(LDA)
使用lda库的LDA类选择特征的代码如下:
from sklearn.lda import LDA
#线性判别分析法,返回降维后的数据
#参数n_components为降维后的维数
LDA(n_components=2).fit_transform(iris.data, iris.target)
3.回顾:
库 类 说明
decomposition PCA 主成分分析法
lda LDA 线性判别分析法
阅读全文
0 0
- 降维(PCA 和LDA)
- pca 和lda区别
- lda和pca
- pca 和lda区别
- LDA和PCA
- PCA和LDA
- LDA和PCA
- PCA、LDA降维
- PCA&LDA
- LDA PCA
- LDA & PCA
- LDA & PCA
- pca+lda
- LDA PCA
- PCA、LDA
- LDA PCA
- leftnoeasy 写的lda和pca
- 线性降维方法PCA和LDA
- 脚本执行顺序
- --save-dev 与 --save的区别
- 游戏中实现类似在场景中拖拉坐标轴
- 几何分布期望,方差推导
- 多校第九场总结,树剖
- 降维(PCA 和LDA)
- Java中StringBuilder的用法
- Matlab Graphics
- openstack参数调优
- 写jsp页面时遇到的值传递问题
- MATLAB Graphics -Surface 绘图
- 李炎恢 js教程 拖拽上 思路解析
- android videoview视频铺满屏幕
- 我的个人作品