Stanford UFLDL教程 白化

来源:互联网 发布:淘宝电子退货规则 编辑:程序博客网 时间:2024/04/30 06:13

白化

Contents

[hide]
  • 1介绍
  • 22D 的例子
  • 3ZCA白化
  • 4正则化
  • 5中英文对照
  • 6中文译者

介绍

我们已经了解了如何使用PCA降低数据维度。在一些算法中还需要一个与之相关的预处理步骤,这个预处理过程称为白化(一些文献中也叫sphering)。举例来说,假设训练数据是图像,由于图像中相邻像素之间具有很强的相关性,所以用于训练时输入是冗余的。白化的目的就是降低输入的冗余性;更正式的说,我们希望通过白化过程使得学习算法的输入具有如下性质:(i)特征之间相关性较低;(ii)所有特征具有相同的方差。


2D 的例子

下面我们先用前文的2D例子描述白化的主要思想,然后分别介绍如何将白化与平滑和PCA相结合。

如何消除输入特征之间的相关性? 在前文计算 \textstyle x_{\rm rot}^{(i)} = U^Tx^{(i)} 时实际上已经消除了输入特征\textstyle x^{(i)}之间的相关性。得到的新特征\textstyle x_{\rm rot} 的分布如下图所示:

PCA-rotated.png

这个数据的协方差矩阵如下:

\begin{align}\begin{bmatrix}7.29 & 0  \\0 & 0.69\end{bmatrix}.\end{align}

(注: 严格地讲, 这部分许多关于“协方差”的陈述仅当数据均值为0时成立。下文的论述都隐式地假定这一条件成立。不过即使数据均值不为0,下文的说法仍然成立,所以你无需担心这个。)


\textstyle x_{\rm rot} 协方差矩阵对角元素的值为\textstyle \lambda_1\textstyle \lambda_2 绝非偶然。并且非对角元素值为0; 因此,\textstyle x_{{\rm rot},1}\textstyle x_{{\rm rot},2} 是不相关的, 满足我们对白化结果的第一个要求 (特征间相关性降低)。

为了使每个输入特征具有单位方差,我们可以直接使用 \textstyle 1/\sqrt{\lambda_i} 作为缩放因子来缩放每个特征\textstyle x_{{\rm rot},i} 。具体地,我们定义白化后的数据\textstyle x_{{\rm PCAwhite}} \in \Re^n 如下:

\begin{align}x_{{\rm PCAwhite},i} = \frac{x_{{\rm rot},i} }{\sqrt{\lambda_i}}.   \end{align}


绘制出 \textstyle x_{{\rm PCAwhite}} ,我们得到:

PCA-whitened.png


这些数据现在的协方差矩阵为单位矩阵 \textstyle I 。我们说,\textstyle x_{{\rm PCAwhite}} 是数据经过PCA白化后的版本: \textstyle x_{{\rm PCAwhite}} 中不同的特征之间不相关并且具有单位方差。

白化与降维相结合。 如果你想要得到经过白化后的数据,并且比初始输入维数更低,可以仅保留 \textstyle x_{{\rm PCAwhite}} 中前\textstyle k 个成分。当我们把PCA白化和正则化结合起来时(在稍后讨论),\textstyle x_{{\rm PCAwhite}} 中最后的少量成分将总是接近于0,因而舍弃这些成分不会带来很大的问题。


ZCA白化

最后要说明的是,使数据的协方差矩阵变为单位矩阵 \textstyle I 的方式并不唯一。具体地,如果\textstyle R 是任意正交矩阵,即满足\textstyle RR^T = R^TR = I (说它正交不太严格,\textstyle R 可以是旋转或反射矩阵), 那么 \textstyle R \,x_{\rm PCAwhite} 仍然具有单位协方差。在ZCA白化中,令\textstyle R = U 。我们定义ZCA白化的结果为:

\begin{align}x_{\rm ZCAwhite} = U x_{\rm PCAwhite}\end{align}

绘制 \textstyle x_{\rm ZCAwhite},得到:

ZCA-whitened.png


可以证明,对所有可能的 \textstyle R,这种旋转使得\textstyle x_{\rm ZCAwhite} 尽可能地接近原始输入数据\textstyle x

当使用 ZCA白化时(不同于 PCA白化),我们通常保留数据的全部 \textstyle n 个维度,不尝试去降低它的维数。


正则化

实践中需要实现PCA白化或ZCA白化时,有时一些特征值 \textstyle \lambda_i 在数值上接近于0,这样在缩放步骤时我们除以\sqrt{\lambda_i} 将导致除以一个接近0的值;这可能使数据上溢 (赋为大数值)或造成数值不稳定。因而在实践中,我们使用少量的正则化实现这个缩放过程,即在取平方根和倒数之前给特征值加上一个很小的常数\textstyle \epsilon

\begin{align}x_{{\rm PCAwhite},i} = \frac{x_{{\rm rot},i} }{\sqrt{\lambda_i + \epsilon}}.\end{align}

\textstyle x 在区间\textstyle [-1,1] 上时, 一般取值为\textstyle \epsilon \approx 10^{-5}

对图像来说, 这里加上 \textstyle \epsilon ,对输入图像也有一些平滑(或低通滤波)的作用。这样处理还能消除在图像的像素信息获取过程中产生的噪声,改善学习到的特征(细节超出了本文的范围)。


ZCA 白化是一种数据预处理方法,它将数据从 \textstyle x 映射到\textstyle x_{\rm ZCAwhite} 。 事实证明这也是一种生物眼睛(视网膜)处理图像的粗糙模型。具体而言,当你的眼睛感知图像时,由于一幅图像中相邻的部分在亮度上十分相关,大多数临近的“像素”在眼中被感知为相近的值。因此,如果人眼需要分别传输每个像素值(通过视觉神经)到大脑中,会非常不划算。取而代之的是,视网膜进行一个与ZCA中相似的去相关操作 (这是由视网膜上的ON-型和OFF-型光感受器细胞将光信号转变为神经信号完成的)。由此得到对输入图像的更低冗余的表示,并将它传输到大脑。


中英文对照

白化 whitening

冗余 redundant

方差 variance

平滑 smoothing

降维 dimensionality reduction

正则化 regularization

反射矩阵 reflection matrix

去相关 decorrelation

from: http://ufldl.stanford.edu/wiki/index.php/%E7%99%BD%E5%8C%96

0 0
原创粉丝点击