机器学习_保留分类信息的多任务特征选择/矩阵的k范数

来源:互联网 发布:sql数据库怎么建立 编辑:程序博客网 时间:2024/04/30 08:21

0.特征选择

【1】特征选择:就是挑选具有较高区分能力的特征(理:之前还在西瓜书的决策树和特征选取中学习过信息熵的方法)

1.问题的出现

【1】常见的特征评价标准多用于单变量的度量(例子:西瓜书里的信息熵、过滤式特征选取里的距离法),只能保证在选取时本轮最优,但无法保证所选整体最优

【2】所以有的特征选取方法:SPFS可以解决特征的互补性和冗余性。但仍有不合理之处。这个不合理之处就是本文的亮点。

【3】本文的亮点:常见的选择法降低的是特征间的冗余性,不合理,因降低特征之间与分类有关的冗余性。

【4】本文的亮点:选择法以最大化离散为目标,忽略了类与类之间的相关性。

2.矩阵的k范数

【1】是矩阵内部各元素的平方和,再开根号

【2】可由迹计算(对角线元素之和),具体看下链接

【3】https://zhidao.baidu.com/question/2142560970431214268.html

3.矩阵相乘的意义

【1】从乘法角度去理解:简单乘法的集合。启示:将多个乘法运算集合为矩阵,运行速度将提升

【2】从运动?坐标变换去理解?还未用到。

n.问题

【1】怎么去除冗余的部分,一个特征还能拆么。照我的理解,面积和长、宽,面积直接去掉

【2】为什么要考虑类与类之间的相关性

【3】目标函数,即(1)式它内在的几何意义是什么?比如之前svm距离最大、集成学习指数损失函数最小

原创粉丝点击