在BEGAN中有关学习率(Learning Rate)的调整_笔记
来源:互联网 发布:驱蚊子软件 编辑:程序博客网 时间:2024/06/05 19:44
本文从梯度学习算法的角度中看学习率对于学习算法性能的影响,以及介绍如何调整学习率的一般经验和技巧。
在机器学习中,监督式学习(Supervised Learning)通过定义一个模型,并根据训练集上的数据估计最优参数。梯度下降法(Gradient Descent)是一个广泛被用来最小化模型误差的参数优化算法。梯度下降法通过多次迭代,并在每一步中最小化成本函数(cost function)来估计模型的参数(weights)。
—————————————————————————————————————————————————————————————————
本文从梯度学习算法的角度中看学习率对于学习算法性能的影响,以及介绍如何调整学习率的一般经验和技巧。
在机器学习中,监督式学习(Supervised Learning)通过定义一个模型,并根据训练集上的数据估计最优参数。梯度下降法(Gradient Descent)是一个广泛被用来最小化模型误差的参数优化算法。梯度下降法通过多次迭代,并在每一步中最小化成本函数(cost function)来估计模型的参数(weights)。
—————————————————————————————————————————————————————————————————梯度下降过程的图示如下:
学习率的调整
为了能够使得梯度下降法有较好的性能,我们需要把学习率的值设定在合适的范围内。学习率决定了参数移动到最优值的速度快慢。如果学习率过大,很可能会越过最优值;反而如果学习率过小,优化的效率可能过低,长时间算法无法收敛。所以学习率对于算法性能的表现至关重要.
对于不同大小的数据集,调节不同的学习率
根据我们选择的成本函数F()不同,问题会有区别。当平方误差和(Sum of Squared Errors)作为成本函数时, ∂F(ωj) / ∂ωj 会随着训练集数据的增多变得越来越大,因此学习率需要被设定在相应更小的值上。
解决此类问题的一个方法是将学习率λ 乘上1/N,N是训练集中数据量。这样每部更新的公式变成下面的形式:
ωj = ωj - (λ/N) * ∂F(ωj) / ∂ωj
相关内容可参考: Wilson et al. paper “The general inefficiency of batch training for gradient descent learning”
另外一种解决方法是:选择一个不被训练集样本个数影响的成本函数,如均值平方差(Mean Squared Errors)。
在每次迭代中调节不同的学习率
在每次迭代中去调整学习率的值是另一种很好的学习率自适应方法。此类方法的基本思路是当你离最优值越远,你需要朝最优值移动的就越多,即学习率就应该越大;反之亦反。
但是这里有一个问题,就是我们并不知道实际上的最优值在哪里,我们也不知道每一步迭代中我们离最优值有多远。
解决办法是,我们在每次迭代的最后,使用估计的模型参数检查误差函数(error function)的值。如果相对于上一次迭代,错误率减少了,就可以增大学习率,以5%的幅度;如果相对于上一次迭代,错误率增大了(意味着跳过了最优值),那么应该重新设置上一轮迭代ωj 的值,并且减少学习率到之前的50%。这种方法叫做 Bold Driver.
建议:归一化输入向量
归一化输入向量在机器学习问题中是一个通用的方法。在一些应用中,由于使用距离或者特征方差,要求必须归一化输入向量,因为如果不归一化将导致结果会严重被具有大方差的特征和不同的尺度影响。归一化输入能够帮助数值最优方法(例如,梯度下降法)更快,更准确地收敛。
尽管有一些不同的归一化变量的方法,[0,1]归一化(也叫做min-max)和z-score归一化是两种最为广泛应用的。
XminmaxNorm = (X - min(X)) / (max(X) - min(X));
XzscoreNorm = (X - mean(X)) / std(X);
—————————————————————————————————————————————————————————————————
在BEGAN中的lr:
1. 在BEGAN中参数为固定值,能否将lr的方式改为过程动态,在每次迭代中调节不同的学习率。
2. 原文中γ值在[0,1]内,超过1可能会造成模型不稳定甚至崩溃等,该范围是如何确定的。
- 在BEGAN中有关学习率(Learning Rate)的调整_笔记
- 学习率Learning rate
- 学习率 Learning Rate
- Tensorflow学习率的learning rate decay
- pytorch学习笔记(十):learning rate decay(学习率衰减)
- pytorch学习笔记(十):learning rate decay(学习率衰减)
- tensorflow学习笔记(三十六):learning rate decay
- Learning Rate--学习率的选择(to be continued)
- 关于调节学习率(learning rate)的几点建议
- mxnet设置动态学习率(learning rate)
- 机器学习(二)- learning rate
- 【deeplearning.ai笔记第二课】2.3 学习率衰减(learning rate decay),局部极小值和鞍点
- 学习笔记一:learning rate,weight decay和momentum的理解
- 170620 tensorflow中如何随迭代次数更改学习率learning rate
- 解释Learning Rate在Neural Network的作用
- Caffe中learning rate 和 weight decay 的理解
- Caffe中learning rate 和 weight decay 的理解
- Caffe中learning rate 和 weight decay 的理解
- 网络安全测试工程师职能
- Mysql生成UUID
- 思考问题的方式
- 整数提升
- main函数执行前-C/C++运行时库剖析
- 在BEGAN中有关学习率(Learning Rate)的调整_笔记
- 爱创课堂分享“15 个有趣的 JS 和 CSS 库”
- java创建线程常见的2种方法
- TCP知识点总结
- java中的set() get() 方法
- jenkins gitlab webhook配置
- javaWeb 内置对象(二)
- QTextEdit中插入Gif动画并显示
- 谈谈8年C++面向对象设计的经验体会