Boosting 和 Gradient Boosting 理解

来源:互联网 发布:linux vim 命令模式 编辑:程序博客网 时间:2024/04/29 05:56

Boosting主要是一种思想,表示“知错就改”。而Gradient Boosting是在这个思想下的一种函数(也可以说模型)的优化方法,首先将函数(模型)分解为可加的形式(其实所有的函数都是可加的,只是是否好放在这个框架中,以及最终的效果如何)。然后进行m次迭代,通过使得损失函数在梯度上减少,最终得到一个优秀的模型。值得一提的是,每次模型在梯度方向上减少的部分,可以认为是一个“小”或者"弱"的模型,最终我们会通过加权(也就是每次在梯度方向上下降的距离)的方式将这些弱的模型合并起来,形成一个更好的模型。


通用的Gradient Descent Boosting的框架:


写成梯度下降的方式就是下面的形式,也就是我们将要得到的模型fm(x)的参数{am,bm}能够使得fm的方向是之前得到的模型Fm-1(x)的损失函数下降最快的方向:


0 0
原创粉丝点击