LR连续特征离散化

来源:互联网 发布:python 自动发送邮件 编辑:程序博客网 时间:2024/05/20 17:40
1主要目的是获得指数级的表示能力。假如一个n维的连续向量,即使采用最简单的每一维二值化,也会得到2^n种特征组合。这种表示方法对LR这种线性分类器是十分关键的。在超高维的特征空间中,很多问题就都变为线性可分问题,从而可以极大提高分类器的能力。总之就是增强了特征的表达能力,或者说更容易线性可分。
2离散特征的增加和减少都很容易,模型也不需要调整,相比贝叶斯推断方法或者树模型方法易于模型的快速迭代;
3离散化后的特征对异常数据有很强的鲁棒性。在噪声很大的环境中,离散化可以降低特征中包含的噪声,提升特征的表达能力。但是如何离散化是一个非常重要的步骤。不同的离散化方法会带来非常大的性能差异。
4逻辑回归属于广义线性模型,表达能力受限;单变量离散化为N个后,每个变量有单独的权重,相当于为模型引入了非线性,能够提升模型表达能力,加大拟合;
5离散化后可以进行特征交叉,由M+N个变量变为M*N个变量,进一步引入非线性,提升表达能力;
6特征离散化后,模型会更稳定,比如如果对用户年龄离散化,20-30作为一个区间,不会因为一个用户年龄长了一岁就变成一个完全不同的人;
7特征离散化以后,获得相当效果下模型结构简化,起到了简化了逻辑回归模型的作用,降低了模型过拟合的风险;
8稀疏向量内积乘法运算速度快,计算结果方便存储,容易扩展。

参考

https://www.zhihu.com/question/31989952/answer/54184582