机器学习中的特征选择和优缺点
来源:互联网 发布:佛罗里达州立大学 知乎 编辑:程序博客网 时间:2024/06/07 01:18
特征选择和机器学习算法两者存在紧密的联系,根据特征选择中子集评价标准和后续学习算法的结合
方式可分为嵌入式(embedded)、过滤式(filter)和封装式(wraper)
1.嵌入式特征选择
在嵌入式特征选择中,特征选择算法本身作为组成部分嵌入到学习算法里,最典型的就是决策树算法,如Quinlan的ID3,
C4.5以及Breiman的CART算法等,决策树算法在树增长过程的每个递归步都必须选择一个特征,将样本划分成较小的子集,
选择特征的一句通常是划分后子节点的纯度,划分后子节点越纯,则说明划分效果越好,可见决策树生成的过程也就是特征选择
的过程
2.过滤式特征选择
早期的特征选择算法大多属于过滤式特征选择,过滤式特征选择的评价标准从数据集本身的内在性质获得,与特定的学习
算法无关,因此具有具有较好的通用性。通常选择和类别相关度大的特征或者特征子集。过滤式特征选择的研究者认为,相关度
较大的特征或者特征自己会在分类器上获得较高的准确率,dash 和 liu把过滤式特征选择的评价标准分为四种,即距离度量,信息度量,关联度量
以及一致性度量
优点:算法的通用性强,省去了分类器的训练步骤,算法复杂性低,因而适用于大规模数据集,可以快速去除大量不相关的特征,
作为特征的预筛选器非常合适的
缺点:由于算法的评价标准独立于特定的学习算法,所选的特征子集在分类准确率方面通常低于wrapper方法
3.封装式特征选择
封装式特征选择即wrapper方法利用学习算法的性能来评价特征自己的优劣,因此,对于一个待评价的特征子集,wrapper方法需要
训练一个分类器,根据分类器的性能对该特征子集进行评价,wrapper方法中用以评价特征的学习算法是多种多样的,例如决策树、
神经网路、贝叶斯分类器、近邻法以及支持向量机等等。huswh提出了一种利用遗传算法作为搜索策略、决策树的分类准确性作为
子集评价标准的wrapper方法,lil等人用遗传算法结合人工神经网络进行特征选择和分类,并取得了较好的实验效果。inza等则利用贝叶斯
网络的性能作为自己评价标准,这些方法都是直接利用分类器的分类性能来评价特征子集的优劣
优点:相对于filter方法,wrapper方法找到的特征子集分类性能通常更好
缺点:wrapper方法选出的特征通用性不强,当改变学习算法时,需要针对该学习算法重新进行特征选择,由于每次对子集的
评价都要进行分类器的训练和测试,所以算法计算复杂度很高,尤其对于大规模数据集来说,算法的执行时间越长
- 机器学习中的特征选择和优缺点
- 机器学习中的特征选择
- 机器学习中的特征选择
- 机器学习中的特征选择问题
- 机器学习中的特征选择问题
- 机器学习--特征选择
- 机器学习:特征选择
- 机器学习-特征选择
- 机器学习-->特征选择
- 机器学习 特征选择
- 机器学习-特征选择
- 机器学习:特征工程之特征选择和学习
- 机器学习中特征选择和特征提取区别
- 机器学习入门讲解:什么是特征和特征选择
- 机器学习笔记(十一)特征选择和稀疏学习
- [读书笔记]机器学习-11章-特征选择和稀疏学习
- 机器学习-R-特征选择
- 机器学习之特征选择
- 关于 tomcat 集群中 session 共享的三种方法
- qduoj 帅气的HYC的珍珠 (树状数组)
- python实例---python爬虫
- JavaScript学习(三)面向对象、闭包、原型
- ES6之解构赋值
- 机器学习中的特征选择和优缺点
- VMware 12.5虚拟机安装Mac OS X 10(最新版)
- VMware Workstation 不可恢复错误: (vcpu-0)解决方法
- ActiveMQ发布-订阅消息模式(同点对点模式的区别)
- dateTimePicker 賦值
- 【SpringMVC之配置文件(一)】spring 里面的ApplicationContext.xml 和 xxx-servlet.xml分别的作用是什么?
- COGS-2275 [HEOI 2016] seq(树状数组+线段树)
- Scala基础入门(八)Scala 导入包的方式总结
- requestanimationframe用法