Feature sacling与Mean normalization

来源:互联网 发布:如何做好淘宝客服工作 编辑:程序博客网 时间:2024/06/01 08:39

之前一直没有弄明白Feature scaling与Mean normalization这两者之间的关系,都以为是处理特征值的“方法”,其实不然。

以下引用内容均摘自维基百科

Feature scaling is a method used to standardize the range of independent variables or features of data. In data processing, it is also known as data normalization and is generally performed during the data preprocessing step.

其中说到,Feature scaling是标准化变量范围的一种“方法”。为什么方法要加引号?是因为Feature scaling本身并不是标准化变量范围的方法,而是一类方法的总称。也就是说Feature scaling 是一类方法的总称,其中就包括Mean normalization,其余的分别是Rescaling,Standardization,Scaling to unit length。

1.Rescaling

The simplest method is rescaling the range of features to scale the range in [0, 1] or [−1, 1]. Selecting the target range depends on the nature of the data. The general formula is given as:

这是最简单的一种处理方法,它使得所有特征的范围都在[0,1]或者[-1,1]。

x=xmin(x)max(x)min(x)

其中:x是原始值,x为规则化后的值

2.Mean normalisatio

x=xmean(x)max(x)min(x)

其中:x是原始值,x为规则化后的值

3.Standardization

这个方法是机器学习中使用得最广泛的方法,它将使得标准化后的特征值的平均值为0,标准差为1.

x=xmean(x)σ

其中:x是原始值,x为规则化后的值,σ为标准差