神经网络参数更新方法
来源:互联网 发布:临沂淘宝客服招聘信息 编辑:程序博客网 时间:2024/06/03 13:29
神经网络参数更新方法
SGD及变种
1、普通SGD update
SGD(Stochastic Gradient Descent)就是最常见的随机梯度下降。
向着参数的梯度的负方向改变(梯度方向是增加的方向)。
这里的x可以是权值w也可以是偏置b。
2、Momentum update
相比于普通SGD,这种方法在深度网络中收敛更好。
受到物理中的启发:例子的力与势能梯度有相对关系。例子感受到的力,正是损失函数的负梯度。F=ma,负梯度正比于粒的加速度。与普通SGD不同,梯度直接作用于位置,这里用物理的角度来看,梯度直接影响速度,速度再影响位置。
3、Nestrevo Momentum update
与Momentum稍稍有点不同。对于凸函数具有较强的理论收敛保证,实际中效果比Mnmentum稍好。
当前参数向量在点x处,从Momentum更新中看v,忽略第二项v变成mu*v。做一个提前量用x_ahead=x+mu*v代替x。
每个参数适应学习率方法
前面的方法对每个参数学习了是固定的,调整学习率是一个耗时的过程。可以使用对每个参数都适应的学习率。1、Adagrad
2、RMSprop
RMSprop是一种有效,但目前还未公开发布的自适应学习率方法。RMSprop改进Adagrad方法,减小他的激进,使用单调减小学习率。特别的,它使用了梯度平方移动平均值。根据梯度尺度来调整学习率是一个有利均衡的效果,但与Adagrad不同,更新不是单调小。
3、Adam
Adam是一种最近提出的方法,有点像RMSprop结合momentum。
简单的更新如下:
阅读全文
2 0
- 神经网络参数更新方法
- 神经网络更新参数的几种方法
- 神经网络参数更新
- 参数更新方法
- 卷积神经网络(CNN)的参数优化方法
- 卷积神经网络(CNN)的参数优化方法
- 卷积神经网络(CNN)的参数优化方法
- 神经网络中的Softmax是如何更新参数的
- 神经网络(持续更新)
- CS231n 卷积神经网络与计算机视觉 7 神经网络训练技巧汇总 梯度检验 参数更新 超参数优化 模型融合 等
- matlab人工神经网络参数
- 神经网络结构参数
- 神经网络训练参数
- 卷积神经网络参数说明
- 神经网络 调节参数
- 神经网络参数优化
- 卷积神经网络参数说明
- 神经网络中的参数解读
- 网络字节序
- 音频设计要求
- Day11
- POJ 3190 Stall Reservations
- 《Android Device Monitor 文件管理的常见问题》
- 神经网络参数更新方法
- 模拟CMOS集成电路设计 学习笔记(三)
- Python爬虫从入门到放弃(十九)之 Scrapy爬取所有知乎用户信息(下)
- mongoDB 详解 四、mongoDB 查询详解
- 关于最大费用最大流的一类问题 【小谈】
- 欢迎使用CSDN-markdown编辑器
- R语言学习
- 【普组模拟赛】战马列队
- caffe源码追踪--syncedmem