梯度提升算法 介绍

来源:互联网 发布:917发卡平台源码 编辑:程序博客网 时间:2024/06/06 11:43

翻译维基百科介绍

梯度提升算法

梯度提升算法是一种解决回归和分类问题的机器学习技术,它通过对弱预测模型(比如决策树)的集成产生预测模型。它像其他提升方法一样以分步的方式构建模型,并且通过允许使用任意可微分的损失函数来推广它们。

非正式介绍

和其他boost方法一样,梯度提升方法也是通过迭代的方法联合弱”学习者”联合形成一个强学习者。很容易在最小二乘回归中解释算法的原理,最小二乘法回归的目的就是“教”模型F通过将平方误差(y^y)2最小化(平均训练集)来预测形如y^=F(x)的值。

在梯度提升的1mM步中,假设已经有一些不完美的模型Fm(最初可以使用非常弱的模型,它只是预测输出训练集的平均值)。梯度提升算法不改变Fm,而是通过增加估计器h构建新的模型Fm+1(x)=Fm(x)+h(x)来提高整体模型的效果。那么问题来了,如何寻找h函数呢?梯度提升方法的解决办法是认为最好的h应该使得:

Fm+1(x)=Fm(x)+h(x)=y
或者等价于:
h(x)=yFm(x)
因此,梯度提升算法将h与残差yFm(x)拟合。与其他boosting算法的变体一样,Fm+1修正它的前身Fm。我们观察到残差yFm(x)是损失函数12(yF(x))2的负梯度方向,因此可以将其推广到其他不是平方误差(分类或是排序问题)的损失函数。也就是说,梯度提升算法是一种梯度下降算法,只需要更改损失函数和梯度就能将其推广。

算法

在许多监督学习问题中,都有一个输出变量y和一个输入向量x,通过联合概率P(x,y)可以将两者联系起来。使用一个训练集(x1,y1),,(xn,yn)已知x及对应的y。学习的目的就是通过最小化一些损失函数L(y,F(x))的期望值,找到F(x)的近似F^(x)

F^=argminFEx,y[L(y,F(x))]

梯度提升算法假设一个真值y然后通过加权和形式的hi(x)H得到近似函数F^(x),hi(x)被称为基学习器:
F^(x)=i=1nγihi(x)+const
根据经验风险最小化原理,F^(x)可以通过对训练集样本平均损失求极小值得到。开始时,模型由一个常函数F0(x)组成,然后利用贪心策略增量扩展模型:
F0(x)=argminγi=1nL(yi,γ)
Fm(x)=Fm1(x)+argminhHi=1nL(yi,Fm1(xi)+h(xi))

其中hi(x)H是基学习器。
不幸的是,在任意损失函数L的每个步中选择最佳函数h,一般来说这是一个计算上不可行的优化问题。因此我们可以通过一些限制简化问题。简化的办法就是使用梯度下降法解决最小化问题。假设我们考虑连续的情况,比如H是一个定义在R上可微函数的集合,我们可以根据下式更新模型:
Fm(x)=Fm1(x)γmi=1nFm1L(yi,Fm1(xi)),
γm=argminγi=1nL(yi,Fm1(xi)γL(yi,Fm1(xi))Fm1(xi))

其中导数是关于Fii[1,2..,m]求导所得。然后在离散的情况下,比如函数集合H是有限的,我们将选择最接近损失函数L梯度的候选函数h,其中γ可以借助上式的线性搜索进行计算。注意,这是一个启发式的方法,因此不能得到精确解,但是得到的近似解已经足够精确了。
通用梯度提升方法的伪代码如下:

输入:训练集{(xi,yi)}ni=1,可微损失函数L(y,F(x)),迭代次数M
算法如下:
1. 使用常量初始化模型:

F0(x)=argminγi=1nL(yi,γ).

2. For m = 1 to M:
1.使用损失函数的负梯度在当前模型Fm1(x)上的值近似代替残差:
rim=[L(yi,F(xi))F(xi)]F(x)=Fm1(x)for i=1,,n.

2. 使用基学习器hm(x)拟合近似的残差值,即用训练集{(xi,rim)}ni=1进行拟合
3. 解一维优化问题计算乘子γm:
γm=argminγi=1nL(yi,Fm1(xi)+γhm(xi)).

4.更新模型:
Fm(x)=Fm1(x)+γmhm(x).

3.输出FM(x)

梯度提升树

梯度提升算法通常用具有固定大小的决策树(特别是CART树)作为基学习器。对于这种特殊情况,Friedman提出了一种改进梯度提升的方法,提高了每个基学习期的质量。一般梯度提升算法在第m步使用hm(x)拟合近似残差。另Jm为叶节点的数目。则模型树将空间分为Jm个不相交的区域R1m,,RJmm,每个区域的预测值为常量。利用指示函数I,对于输入x,输出hm(x)可以有以下和的形式:

hm(x)=j=1JmbjmI(xRjm)
其中,bjm是区域Rjm的预测值,然后系数bjm乘上某一值γm,通过线性搜索最小化损失函数得到该值,模型更新为:
Fm(x)=Fm1(x)+γmhm(x),γm=argminγi=1nL(yi,Fm1(xi)+γhm(xi)).

Friedman建议修改该算法,以便为每个树的区域选择单独的最优值γmj,而不是单个γm。 他称修改后的算法为“TreeBoost”。 修改后可以简单地舍弃来自树拟合过程的系数b+jm,并且模型更新规则变为:
Fm(x)=Fm1(x)+j=1JmγjmI(xRjm)γjm=argminγxiRjmL(yi,Fm1(xi)+γ).

树的大小

J代表树终端节点的数目,是可以根据数据集手动调整的方法参数。它控制了模型变量之间的最大相互作用。当J=2(决策树桩)时,变量之间不允许有相互作用。J=3时,模型可能包括最多两个变量之间的相互作用。
Hastie等人评论认为, 4J8时效果很好,预测结果对在这一范围内选择的J相当不敏感,J=2对于一般应用来说是不够的,但是也很少需要取J10.
(译注:由于译者水平有限,没有完全这段话含义,尤其是相互作用这几句话,希望得到大神指
点,现贴出原文)。
J, the number of terminal nodes in trees, is the method’s parameter which can be adjusted for a data set at hand. It controls the maximum allowed level of interaction between variables in the model. WithJ=2 (decision stumps), no interaction between variables is allowed. WithJ=2the model may include effects of the interaction between up to two variables, and so on.

Hastie et al.[7] comment that typically 4J8 work well for boosting and results are fairly insensitive to the choice of J in this range, J = 2insufficient for many applications, and J > 10 is unlikely to be required.

正则化

拟合训练集太过于接近可能会降低模型的泛化能力。几种所谓的正则化技术通过约束拟合过程来减少这种过拟合效应。一个很自然的正则化参数是梯度提升的迭代次数M(即当基学习器是决策树时,模型中树的数目)。 增加M可减少训练误差,但将其设置得太高可能导致过拟合。 通常通过在单独的验证集上监测误差来选择M的最优值。 除了控制M之外,还可以使用其他一些正则化技术:

收缩

梯度提升算法的一个重要部分是收缩正则化,其中包括修改更新规则如下:

Fm(x)=Fm1(x)+νγmhm(x),0<ν1

其中参数ν称为学习率。经验表明,与使用较大的学习率(如ν=1)相比,使用较小的学习率(比如ν<0.1)能够显著的提高模型泛化能力。但是这也会使训练时间,迭代次数增加。

随机梯度提升

引入梯度提升方法不久之后,Friedman提出对该算法的微小修改,想法源于Breiman提出的bagging方法。具体来说,他提出在算法的每一次迭代中,基础学习器应该随机抽取训练集的子样本作为训练集拟合。Friedman观察到这种修改对梯度提升的精度有实质性改善。
子样本大小由常分数f决定,代表子样本大小与总样本大小的比值。当f = 1时,算法是确定性的,与前述相同。 较小的f则将随机性引入到算法中,作为正则化的一种形式有助于防止过度拟合。同时也能提高该算法的效率,因为在每次迭代时,回归树将拟合较小的数据集。 Friedman的观点认为,对于中小型训练集,0.5f0.8的效果很好。因此,f通常设置为0.5,这意味着训练集的一半用于构建每个基础学习器。
和bagging算法一样,子样本通过评价那些在构建下一个基学习器中没有使用的样本集,可以定义预测性能改进的包外误差(out-of-bag)。 包外估计可以避免需要独立的验证数据集,但往往低估实际性能的提升和最佳迭代次数。

叶节点中包含样本数

梯度提升树的实现中,还可以通过限制树叶节点中的最小样本数量来进行正则化(该参数在R gbm包中称为n.minobsinnode [10])。 它忽略将导致叶节点包含少于某一阈值数量的训练集实例节点的分裂(译注:也就是预剪枝)。施加此限制有助于减少叶节点预测的方差。

树复杂度的罚项

梯度提升树的另一个有用的正则化技术是惩罚学习模型的模型复杂性。模型复杂度可以定义为树中叶子的比例数(译注:比例数?应该是指叶子总数与树数目的比值)。 损失函数加上模型复杂度的罚项对应于修剪后的算法,可以去除一些增加模型复杂度,但对损失函数的降低影响不大的分支。 还可以添加其他类型的正则化,例如2 正则化对叶节点值的惩罚,以避免过度拟合。

0 0
原创粉丝点击