自适应学习速率?
来源:互联网 发布:淘宝快速抢到现货经验 编辑:程序博客网 时间:2024/05/16 04:31
前言
在监督学习中,我们都或多或少的意识到学习速率
那么有木有方法,能够让学习速率也可以自适应的调整?
我们知道,超参数是不能通过某个模型自身的学习算法来进行优化的。例如,在多项式回归中,使用普通的范数
故而,对于超参数的训练,我们一般会设计另外一个训练算法而不使用原训练模型,学习速率也是一样。
本文,介绍最近几种吊炸天、鲁棒性比较强的自适应学习速率调整算法。
AdaGrad
Adaptive Gradient
基本原理
这个算法出于的考虑是,如果某个参数的梯度的改变较大就会有一个较小的学习速率,梯度改变较大就有一个较小的学习速率。
伪代码
输入:
全局学习速率
流程:
初始化梯度累计变量
While 算法没有停止 do
从训练集选择某个包含m个样本的batch.
计算这个batch的梯度:
计算累计平方梯度:
计算更新:
更新参数:
end While
缺陷
太过于重视历史梯度,导致学习速率过早的猛增或猛减。
RMSProp
RMSProp算法是由大佬Hinton提出来的,经验上该算法是一种有效且特别实用的自适应算法。与AdaGrad相比,它最大的不同就是引入参数
伪代码
- 自适应学习速率?
- 自适应学习速率SGD优化算法
- 自适应学习速率SGD优化算法
- 学习速率
- 自适应学习速率SGD优化方法比较(SGD,Adagrad,Adadelta,Adam,Adamax,Nadam)
- 802.11无线速率自适应方法总结
- MadWifi选择加载速率自适应算法模块
- Tensorflow 学习速率的设置|学习速率的指数下降
- OTN学习笔记-帧速率
- 机器学习笔记之学习速率
- 神经网络的泛化能力、学习速率
- Caffe下学习速率调整策略摘抄
- 汇编学习float与double速率问题
- caffe下学习速率调整策略
- 神经网络中的学习速率如何理解
- 浏览器自适应学习
- 自适应开发学习
- 自适应滤波器学习笔记
- 秒差計算例
- Tomcat7.0.42源码研读之网络框架Coyote(六)
- Linux系统下的线程控制
- SQL Server2008 学习之(三) :数据库的导入及第一个“Hello World”
- 捕获组匹配
- 自适应学习速率?
- JAVA编写QQ登录界面
- CentOS7 安装与配置Ant
- 习题5.3
- python数据分析与挖掘实战 第九章 拓展练习
- 洛谷八连测 #R7
- 【Oracle】表空间配额问题
- c#WebBrowser的自动化模拟点击
- shiro执行流程