特征选择和特征抽取(学习小结)
来源:互联网 发布:车主名单软件 编辑:程序博客网 时间:2024/05/16 00:51
1.特征抽取 V.S 特征选择
特征抽取和特征选择是DimensionalityReduction(降维)的两种方法,针对于the curse of dimensionality(维灾难),都可以达到降维的目的。但是这两个有所不同。
特征抽取(Feature Extraction):Creatting a subset of new features by combinations of the exsiting features.也就是说,特征抽取后的新特征是原来特征的一个映射。
特征选择(Feature Selection):choosing a subset of all the features(the ones more informative)。也就是说,特征选择后的特征是原来特征的一个子集。
2. PCA V.S LDA
主成分分析(Principle Components Analysis ,PCA)和线性评判分析(Linear Discriminant Analysis,LDA)是特征抽取的两种主要经典方法。
对于特征抽取,有两种类别:
(1)Signal representation(信号表示): The goal of the feature extraction mapping is to represent the samples accurately in a low-dimensional space. 也就是说,特征抽取后的特征要能够精确地表示样本信息,使得信息丢失很小。对应的方法是PCA.
(2)Signal classification(信号分类): The goal of the feature extraction mapping is toenhance the class-discriminatory information in a low-dimensional space. 也就是说,特征抽取后的特征,要使得分类后的准确率很高,不能比原来特征进行分类的准确率低。对与线性来说,对应的方法是LDA . 非线性这里暂时不考虑。
可见, PCA和LDA两种方法的目标不一样,因此导致他们的方法也不一样。PCA得到的投影空间是协方差矩阵的特征向量,而LDA则是通过求得一个变换W,使得变换之后的新均值之差最大、方差最大(也就是最大化类间距离和最小化类内距离),变换W就是特征的投影方向。
- 特征选择和特征抽取(学习小结)
- 特征选择和特征抽取(学习小结)
- 特征选择和特征抽取(学习小结)
- 特征选择和特征抽取 [uncompleted]
- 浅谈特征选择和特征抽取
- 特征选择与特征抽取
- 特征抽取与特征选择
- 特征抽取与特征选择
- 特征选择与特征抽取的区别
- sparkmllib 特征抽取、特征转换及特征选择
- 【特征工程】特征选择与特征学习
- 【特征工程】特征选择与特征学习
- 特征选择与特征学习
- 特征选择与特征学习
- 特征选择与特征学习
- 特征选择与特征学习
- 特征选择和特征理解
- 机器学习:特征工程之特征选择和学习
- 海康威视现场技术面+HR面
- 关于eclipse出现卡顿情况的解决
- java8 笔记
- sublime text3 3143安装
- 理论篇~第一章 大数据数据仓库架构
- 特征选择和特征抽取(学习小结)
- Day6
- linux源码阅读第二弹之main函数
- linux / .的意思
- Ubuntu升级GCC版本
- C++数据结构实验一实验报告
- jvm内存分配
- 用for循环解简易方程
- 【58同城2017年笔试题】找到局部有序的数组的最小值,复杂度为O(logn)