浅谈机器学习中的特征缩放(feature scaling)
来源:互联网 发布:网络作答系统网站 编辑:程序博客网 时间:2024/05/15 05:17
引言
在运用一些机器学习算法的时候不可避免地要对数据进行特征缩放(feature scaling),比如:在随机梯度下降(stochastic gradient descent)算法中,特征缩放有时能提高算法的收敛速度。下面我会主要介绍一些特征缩放的方法。
什么是特征缩放
特征缩放是用来标准化数据特征的范围。
机器算法为什么要特征缩放
特征缩放还可以使机器学习算法工作的更好。比如在K近邻算法中,分类器主要是计算两点之间的欧几里得距离,如果一个特征比其它的特征有更大的范围值,那么距离将会被这个特征值所主导。因此每个特征应该被归一化,比如将取值范围处理为0到1之间。
就如我在引言所说,特征缩放也可以加快梯度收敛的速度。
特征缩放的一些方法
调节比例(Rescaling)
这种方法是将数据的特征缩放到[0,1]或[-1,1]之间。缩放到什么范围取决于数据的性质。对于这种方法的公式如下:
标准化(Standardization)
特征标准化使每个特征的值有零均值(zero-mean)和单位方差(unit-variance)。这个方法在机器学习地算法中被广泛地使用。例如:SVM,逻辑回归和神经网络。这个方法的公式如下:
0 0
- 浅谈机器学习中的特征缩放(feature scaling)
- 浅谈机器学习中的特征缩放(feature scaling)
- 机器学习中的特征缩放(feature scaling)浅谈
- Feature Scaling 特征缩放
- 特征缩放(Feature Scaling)
- feature scaling 特征缩放
- 特征缩放(feature scaling)
- 机器学习(一)- feature scaling
- 浅谈Feature Scaling
- 浅谈Feature Scaling--基础知识
- 浅谈Feature Scaling
- 浅谈Feature Scaling
- 【机器学习】特征缩放
- 梯度下降实用技巧I之特征缩放 Gradient Descent in practice I - feature scaling
- 斯坦福大学机器学习——特征选择(Feature selection)
- 线性回归与特征归一化(feature scaling)
- 机器学习的特征选择(feature selection)
- 机器学习-梯度下降V(特征缩放)
- Oracle查询 行列式转换
- SSH:Server Apache Tomcat atlocalhost failed to start
- intValue()的用法
- 为什么反射机制要依赖类的无参构造方法
- 求n个整数中第二小的数。 相同的整数看成一个数。比如,有5个数分别是1,1,3,4,5,那么第二小的数就是3。
- 浅谈机器学习中的特征缩放(feature scaling)
- HDU 2874(LCA)
- 操作系统设计与实现 第二章 进程(一)
- 冒泡排序法
- 利用Activity之间回传显示数据
- SSH:Field 'id' doesn't have a default value
- js基本语法--排序,冒泡排序法
- 使用BeanUtils工具类封装请求参数
- CodeForces 554B. Ohana Cleans Up【思维】