回归树
来源:互联网 发布:苦瓜知乎道理 编辑:程序博客网 时间:2024/06/08 08:13
GBDT由一系列的回归树组成,如下图所示(树的深度未必都要一样,下图仅为示意图)。
GBDT原理
针对每一个类别训练一系列的回归树,再累加每个类别回归树的预测值得到针对每个类别的最终的预测值。单独拿一个类别来说,训练的过程中假设需要预测的值为
那么,只要参数
其中
假设第一棵回归树
此时这一系列的回归树
选取不同的Loss Function可以达到不同的目的,比如对于信用模型需要分类的情形,Loss Function为Deviance,对应的梯度为
GBDT的正则化
训练的过程可以指定需要
1. early stopping策略,保留一个验证集,每增添一棵树通过验证集测试误差是否下降,当增添一定数目的树时验证误差不再下降的时候,就可以终止迭代了,得到
2. Shrinkage,也就是减小每一棵回归树对预测值得贡献。这就对应上了公式
3. 二次抽样,即在拟合一棵新的回归树时,不用完全的样本集,而仅是无放回的抽样其中的部分,通常为
- 线性回归 逻辑回归 树回归
- 回归树
- 树回归
- 树回归
- 树回归
- 树回归
- 树回归
- 树回归
- 树回归
- 回归树
- 树回归
- 树回归
- 树回归
- 树回归
- 树回归
- 树回归
- 树回归
- 回归树-----生成回归树
- win10需要system权限才能修改的解决办法
- Windows下VS2013 C++编译测试faster-rcnn(2017-02-26)
- python小工具——下载更新代码工具
- linux命令之tail
- leetcode题解-566. Reshape the Matrix && 495. Teemo Attacking
- 回归树
- AIX系统下如何开启和关闭防火墙
- 使用maven进行springmvc+hibernate的配置文件
- Web缓存
- iOS 应用程序生命周期
- 数独;深搜加回溯南阳722题
- Zxing二维码的生成与扫描,调起相册
- 纯虚析构函数和非纯虚析构函数
- MindManager思维导图应用案例分享