LR连续特征离散化
来源:互联网 发布:python 自动发送邮件 编辑:程序博客网 时间:2024/05/20 17:40
1主要目的是获得指数级的表示能力。假如一个n维的连续向量,即使采用最简单的每一维二值化,也会得到2^n种特征组合。这种表示方法对LR这种线性分类器是十分关键的。在超高维的特征空间中,很多问题就都变为线性可分问题,从而可以极大提高分类器的能力。总之就是增强了特征的表达能力,或者说更容易线性可分。
2离散特征的增加和减少都很容易,模型也不需要调整,相比贝叶斯推断方法或者树模型方法易于模型的快速迭代;
3离散化后的特征对异常数据有很强的鲁棒性。在噪声很大的环境中,离散化可以降低特征中包含的噪声,提升特征的表达能力。但是如何离散化是一个非常重要的步骤。不同的离散化方法会带来非常大的性能差异。
4逻辑回归属于广义线性模型,表达能力受限;单变量离散化为N个后,每个变量有单独的权重,相当于为模型引入了非线性,能够提升模型表达能力,加大拟合;
5离散化后可以进行特征交叉,由M+N个变量变为M*N个变量,进一步引入非线性,提升表达能力;
6特征离散化后,模型会更稳定,比如如果对用户年龄离散化,20-30作为一个区间,不会因为一个用户年龄长了一岁就变成一个完全不同的人;
2离散特征的增加和减少都很容易,模型也不需要调整,相比贝叶斯推断方法或者树模型方法易于模型的快速迭代;
3离散化后的特征对异常数据有很强的鲁棒性。在噪声很大的环境中,离散化可以降低特征中包含的噪声,提升特征的表达能力。但是如何离散化是一个非常重要的步骤。不同的离散化方法会带来非常大的性能差异。
4逻辑回归属于广义线性模型,表达能力受限;单变量离散化为N个后,每个变量有单独的权重,相当于为模型引入了非线性,能够提升模型表达能力,加大拟合;
5离散化后可以进行特征交叉,由M+N个变量变为M*N个变量,进一步引入非线性,提升表达能力;
6特征离散化后,模型会更稳定,比如如果对用户年龄离散化,20-30作为一个区间,不会因为一个用户年龄长了一岁就变成一个完全不同的人;
7特征离散化以后,获得相当效果下模型结构简化,起到了简化了逻辑回归模型的作用,降低了模型过拟合的风险;
8稀疏向量内积乘法运算速度快,计算结果方便存储,容易扩展。
参考
https://www.zhihu.com/question/31989952/answer/54184582
阅读全文
0 0
- LR连续特征离散化
- 连续特征离散化
- 连续特征离散化
- 连续特征的离散化
- 特征离散化,特征交叉,连续特征离散化
- 连续特征离散化和归一化
- 连续特征离散化的好处
- 为什么要将连续特征离散化
- 连续特征离散化的方法
- 连续特征的离散化的意义
- 连续特征离散化的方法
- 连续特征离散化和归一化
- 连续特征离散化的方法
- 逻辑回归LR的特征为什么要先离散化
- 逻辑回归LR的特征为什么要先离散化
- LR其实是可以做一下特征离散化的
- 逻辑回归LR的特征为什么要先离散化
- 逻辑回归LR的特征为什么要先离散化
- java读取.properties配置文件
- 微信小程序25
- 博客笔记:自定义View之绘图(1)--drawText
- 正则表达式里的参数 g、m、i 的一些作用
- 微信小程序26
- LR连续特征离散化
- mac安装scrapy并创建项目
- 微信小程序27
- Solr 6.5.1 SolrCloud windows使用zk安装集群
- Python自然语言分析(第四期):第1课书面作业
- 微信小程序28
- python 多进程并发与多线程并发总结
- wdcp如何修改phpmyadmin导入 最大限制2048 KB
- 嵌入式linux 字节对齐 导致输出Alignment trap