Course 2-Improving Deep Neural Networks--Week 2

来源:互联网 发布:我的世界优化怎么样 编辑:程序博客网 时间:2024/06/05 06:11

优化算法

在大数据上训练模型会很慢,若使用优化算法,就会大大提高训练效率。本周的内容就是介绍常见的优化算法,如mini-batch、momentum、RMSprop、Adam,最后再介绍下局部最优与鞍点的概念。

2.1 mini-batch gradient descent

batch VS mini-batch gradient descent
向量化操作使得我们可以同时处理m个样本,但是当m很大时,处理速度仍然较慢。
batch gradient descent就是我们之前的处理方法,要求我们必须处理整个训练集,才能进行一次梯度下降。
mini-batch的思想是将训练集划分为很多的mini-batch。假设训练集有样本500w,每个mini-batch有样本1000个,那么我们总共就有5000个mini-batch,每个mini-batch记为X{t},t=1,2,...,5000,对Y也进行同样的操作。mini-batch 梯度下降法的原理如下:
这里写图片描述
图片中的代码被称为一次epoch。1 次epoch意味着对训练集的一次完整遍历。batch gradient descent中,遍历一次训练集只能做一次梯度下降,而mini-batch gradient descent中,遍历一次训练集,即1 epoch,允许做5000次梯度下降。

2.2 understanding mini-batch gradient descent

1、batch gradient descent的损失函数是单调递减的。
2、mini-batch gradient descent的损失函数却不是单调递减的,而是在大的下降趋势中,不断上下震动。这是因为,每次更新使用的都是训练集中的一部分数据,利用部分数据算出的代价总是会与真实值有些偏差。
如下图所示
这里写图片描述
在mini-batch gradient descent中,我们要选择的参数是mini-batch size:
当mini-batch size = m,即为batch gradient descent。缺点:单次迭代耗时太长。
当mini-batch size = 1,即为stochastic gradient descent。缺点:失去了所有向量化带来的加速。

下图给出了batch、mini-batch、SGD在梯度下降时情形。
这里写图片描述
因此,在实践中mini-batch size的值设为1~m之间,可以实现最快的学习。这样的mini-batch gradient descent不会总朝着最小值靠近,但它比随机梯度下降要更持续的靠近最小值的方向,而且优化速度会快于batch gradient descent。
mini-batch size选择的指导原则:
1、如果训练集较小(少于2000个样本),直接使用batch gradient descent
2、 典型的mini-batch size大小:64~512,若将mini-batch size设置为2的幂,代码会跑的快一些,即设置为64、128、256、512。
3、make sure X{t}, Y{t} fit in CPU, GPU memory(没太懂这句话的意思)
这里写图片描述
下面将介绍几种比梯度下降法更高效的优化算法。

2.3 exponentially weighted averages

指数加权平均,也叫指数加权移动平均

vt=βvt1+(1β)θt

这里写图片描述
这里写图片描述

2.4 understanding exponentially weighted averages

如下图所示,将v100θ100θ99、…进行表示,可得

v100=0.1θ100+0.10.9θ99+0.10.92θ98+0.10.93θ97+0.10.94θ96...

其中,前面的系数就是权重,如图中蓝色曲线所示,可以看到权重是指数衰减的,这也就是指数加权平均名称的由来。
这里写图片描述
(1ε)1ε1e

所以,0.910=1e
实现:vθ:=βvθ+(1β)θt,这种方法比较节省内存。
这里写图片描述

2.5 bias correction in exponentially weighted averages-指数加权平均的偏差修正

为什么需要偏差矫正?因为在开始做指数加权平均时,我们假设v0等于0,这样,在最开始算平均值的时候,就非常不准,按照下式矫正

vt=vt1βt

这样,在开始的时候,t较小,对vt的矫正作用较大;随着t越来越大,1βt越来越趋向于1,对vt的矫正作用越来越微弱。
在机器学习中,很多人不在乎使用bias correction,因为他们不在意刚开始的值,更注重之后得到的计算结果。如果比较关心初期时候的bias,那么bias correction能帮助你获得较好的估测。
这里写图片描述

2.6 gradient descent with momentum

momentum的运行速度几乎总是快于标准梯度下降法。它的基本思想就是计算梯度的指数加权平均,再利用该加权平均来更新权重。该算法对碗状代价函数效果好。

vdw=0 , vdb=0(和w,b具有相同的维度)
对每次的迭代t:
计算dw,db,在当前的mini-batch
vdw=βvdw+(1β)dw ,w的移动平均数
vdb=βvdb+(1β)db ,b的移动平均数
更新权重
w:=wαvdw
b:=bαvdb

通过加权平均,可以使得梯度在摆动大的维度减小摆动,在无摆动的维度快速下降,这样可以减缓梯度下降的幅度,让算法在抵达最小值的路上减少了摆动。将微分项dw想象成加速度,vdw想象成速度,在每一次梯度下降的时候,可以让算法更好的找到下降的方向。
momentum实现的时候需要两个超参数αβ,其中β=0.9
这里写图片描述

2.7 RMSprop

RMSprop(root mean square prop)也可以加速梯度下降。当在进行梯度下降时,我们想放缓某些轴上的下降速度,加速(至少不放缓)另一些轴上的下降速度,这时候就需要RMSprop。

Sdw=0 , Sdb=0(和w,b具有相同的维度)
对每次的迭代t:
计算dw,db,在当前的mini-batch
Sdw=βSdw+(1β)(dw)2 ,element-wise square operation
Sdb=βSdb+(1β)(db)2 ,element-wise square operation
更新权重
w:=wαdwSdw+ε,ε=108
b:=bαdbSdb+ε

当db较大,dw较小的时候,这样就可以使用一个较大的学习率,而不必担心在某些轴上的偏离较大。
这里写图片描述

2.8 Adam optimization algorithm

可将Adam看作momentum和RMSprop的结合是一种及其常用的学习算法,能有效适用于不同的神经网络。Adam是Adaptive Moment Estimation。一般在实现Adam算法的时候,都要进行bias correction。

vdw=0 , vdb=0Sdw=0 , Sdb=0(和w,b具有相同的维度)
对每次的迭代t:
计算dw,db,在当前的mini-batch
vdw=β1vdw+(1β1)dw
vdb=β1vdb+(1β1)db
Sdw=β2Sdw+(1β2)(dw)2
Sdb=β2Sdb+(1β2)(db)2
vcorrecteddw=vdw1βt1
vcorrecteddb=vdb1βt1
Scorrecteddw=Sdw1βt2
Scorrecteddb=Sdb1βt2
更新权重
w:=wαvcorrecteddwScorrecteddw+ε,一般情况下ε108
b:=bαvcorrecteddbScorrecteddb+ε

这里写图片描述
该算法有很多超参数,学习率α仍然很重要,可以尝试不同的值来tune,β1的默认值是0.9,β2的值推荐为0.999,这是Adam算法的发明者推荐的,ε一般为108

2.9 learning rate decay

另一个加快学习算法的方法就是学习率衰减。设初始学习率为α0,则随着学习的进行,
α=11+decay_rateepoch_numα0
因此,若要使用学习率衰减,就需要尝试很多α0和dacay_rate,直到找到合适的值。
除了上述方法外,还有其他的衰减方法,比如
指数衰减: α=Kepochα0,比如K=0.95
α=Kepoch_numα0或者α=Ktα0
或者离散下降的α值。

2.10 The problem of local optima

在创建神经网络时,大多数情况下,梯度为0的点并不是局部最优点,而是鞍点(saddle point),这与我们之前以为的那些坑坑洼洼的三维图像中的局部最优点差别很大,或者说,我们之前都以为错了。因为,当维数很高的时候,并不能保证每一维在梯度为0的点上都是向上弯曲的,它也有可能是向下弯曲的,因此,就形成了鞍点,而不是我们之前以为的局部最优点。这样,我们就不存在局部最优的问题了。如下图
这里写图片描述
那么到底问题在哪?
1. 不太可能陷入不好的局部最优中
2. 平稳段使得学习变得非常缓慢,这种情况下,就要momentum、RMSprop或Adam这样的算法来加速走出平稳段。

阅读全文
0 0