在神经网络中weight decay、momentum、batch normalization各自意义
来源:互联网 发布:黑社会网络2001 编辑:程序博客网 时间:2024/06/08 18:10
一、weight decay(权值衰减)的使用目的是防止过拟合。在损失函数中,weight decay是放在正则项(regularization)前面的一个系数,正则项一般指示模型的复杂度,所以weight decay的作用是调节模型复杂度对损失函数的影响,若weight decay很大,则复杂的模型损失函数的值也就大。
二、momentum是梯度下降法中一种常用的加速技术。对于一般的SGD,其表达式为,沿负梯度方向下降。
二、momentum是梯度下降法中一种常用的加速技术。对于一般的SGD,其表达式为,沿负梯度方向下降。
最简单的梯度下降法是
.
对于ill-conditioned问题,梯度下降法中每次迭代的方向都很接近于Hessian矩阵最小特征向量的垂直方向,对目标函数的改进很小。为此加入一个历史信息项
这里的就称为动量项,作用是通过历史搜索方向的积累,消除相继搜索方向中相反的方向,而一致的方向则相互累加。
.
对于ill-conditioned问题,梯度下降法中每次迭代的方向都很接近于Hessian矩阵最小特征向量的垂直方向,对目标函数的改进很小。为此加入一个历史信息项
这里的就称为动量项,作用是通过历史搜索方向的积累,消除相继搜索方向中相反的方向,而一致的方向则相互累加。
其中即momentum系数,通俗的理解上面式子就是,如果上一次的momentum(即)与这一次的负梯度方向是相同的,那这次下降的幅度就会加大,所以这样做能够达到加速收敛的过程,带有momentum的时候,可以使用更大的学习率。而且当导数为0的时候,还需要更新一段w才达到平衡,这样有利于于训练过程中逃离局部最小值,使网络能够更快速地收敛,也是需要经过反复地trial and error获得的经验值。
三、batch normalization的是指在神经网络中激活函数的前面,将按照特征进行normalization,这样做的好处有三点:
1、提高梯度在网络中的流动。Normalization能够使特征全部缩放到[0,1],这样在反向传播时候的梯度都是在1左右,避免了梯度消失现象。
2、提升学习速率。归一化后的数据能够快速的达到收敛。
3、减少模型训练对初始化的依赖。
三、batch normalization的是指在神经网络中激活函数的前面,将按照特征进行normalization,这样做的好处有三点:
1、提高梯度在网络中的流动。Normalization能够使特征全部缩放到[0,1],这样在反向传播时候的梯度都是在1左右,避免了梯度消失现象。
2、提升学习速率。归一化后的数据能够快速的达到收敛。
3、减少模型训练对初始化的依赖。
阅读全文
0 0
- 在神经网络中weight decay、momentum、batch normalization各自意义
- CNN:weight decay,momentum,batch normalization
- 在神经网络中weight decay起到的做用是什么?momentum呢?normalization呢?
- Weight Decay & Batch Normalization
- 神经网络中weight decay起到的做用是什么?momentum呢?normalization呢?
- 超参数momentum与weight-decay的作用
- 超参数简单理解-->learning rate,weight decay和momentum
- Deep Learning 1 : Batch Normalization,Weight Normalization and Layer Normalization
- 优化方法,一些重要参数learning rate,weight decay,momentum,learing rate decay
- Batch Normalization 神经网络加速算法
- 神经网络Batch Normalization层学习
- weight decay
- 深度学习超参数简单理解------>learning rate,weight decay和momentum
- 深度学习超参数简单理解------>learning rate,weight decay和momentum
- 深度学习超参数简单理解------>learning rate,weight decay和momentum
- 学习笔记一:learning rate,weight decay和momentum的理解
- ReLU函数进行Batch Normalization意义分析
- 神经网络训练细节之batch normalization
- 如何去掉browserLinkSignalR功能、VS2013、VS2015
- Linux忘记 root密码的解决办法
- Datatable的值设置
- 2017 Multi-University Training Contest 1 1002. Balala Power!(贪心)
- iOS开发内购详细
- 在神经网络中weight decay、momentum、batch normalization各自意义
- 基于TensorFlow算法的物体识别API,将引发计算机视觉链式突破
- Ubuntu 下 apt-get 更新源推荐
- rsync的限速专题
- JDOJ
- Balala Power(贪心)
- php之表单文件iframe异步上传
- 在TP3.2中封装字符串截取的方法
- Epson工业机器人初体验-01