机器学习_保留分类信息的多任务特征选择/矩阵的k范数
来源:互联网 发布:sql数据库怎么建立 编辑:程序博客网 时间:2024/04/30 08:21
0.特征选择
【1】特征选择:就是挑选具有较高区分能力的特征(理:之前还在西瓜书的决策树和特征选取中学习过信息熵的方法)
1.问题的出现
【1】常见的特征评价标准多用于单变量的度量(例子:西瓜书里的信息熵、过滤式特征选取里的距离法),只能保证在选取时本轮最优,但无法保证所选整体最优。
【2】所以有的特征选取方法:SPFS可以解决特征的互补性和冗余性。但仍有不合理之处。这个不合理之处就是本文的亮点。
【3】本文的亮点:常见的选择法降低的是特征间的冗余性,不合理,因降低特征之间与分类有关的冗余性。
【4】本文的亮点:选择法以最大化离散为目标,忽略了类与类之间的相关性。
2.矩阵的k范数
【1】是矩阵内部各元素的平方和,再开根号
【2】可由迹计算(对角线元素之和),具体看下链接
【3】https://zhidao.baidu.com/question/2142560970431214268.html
3.矩阵相乘的意义
【1】从乘法角度去理解:简单乘法的集合。启示:将多个乘法运算集合为矩阵,运行速度将提升
【2】从运动?坐标变换去理解?还未用到。
n.问题
【1】怎么去除冗余的部分,一个特征还能拆么。照我的理解,面积和长、宽,面积直接去掉
【2】为什么要考虑类与类之间的相关性
【3】目标函数,即(1)式它内在的几何意义是什么?比如之前svm距离最大、集成学习指数损失函数最小
阅读全文
0 0
- 机器学习_保留分类信息的多任务特征选择/矩阵的k范数
- 机器学习_矩阵的l21范数/行稀疏/结构稀疏
- 机器学习_特征选择
- 分类的特征选择
- 机器学习的特征选择(feature selection)
- 机器学习_范数规则化
- 文本分类的特征选择方法之信息增益
- 机器学习中特征降维和特征选择的区别
- 机器学习中特征降维和特征选择的区别
- 文本分类入门:特征选择算法之开方检验、信息增益;特征选择与特征权重计算的区别
- 机器学习中范数的梯度推导
- 机器学习中范数的作用
- 什么是矩阵的范数
- 矩阵的范数求导
- 矩阵的范数
- 矩阵的各种范数
- 向量,矩阵的范数
- 矩阵的范数求导
- 如何使用Python为Hadoop编写一个简单的MapReduce程序
- 第六章 字体font
- CSS(二) 基本特性
- 关于聚合数据的使用
- LeetCode 657. Judge Route Circle
- 机器学习_保留分类信息的多任务特征选择/矩阵的k范数
- 设置异步套接字
- 判断是否为回文
- centos7 mysql数据库安装和配置
- div实现隐藏滚动轴效果
- tensorflow-gpu
- Codeforces Round #439 (Div. 2) A题 he Artful Expedien
- modal--7.修改、增加(同步+异步)
- 计蒜客-求第k小