收藏几个模型融合的网址

来源:互联网 发布:安全优化版和官方原版 编辑:程序博客网 时间:2024/05/01 21:00

常见的 Ensemble 方法有这么几种:

Bagging:使用训练数据的不同随机子集来训练每个 Base Model,最后进行每个 Base Model 权重相同的 Vote。也即 Random Forest 的原理。
Boosting:迭代地训练 Base Model,每次根据上一个迭代中预测错误的情况修改训练样本的权重。也即 Gradient Boosting 的原理。比 Bagging 效果好,但更容易 Overfit。
Blending:用不相交的数据训练不同的 Base Model,将它们的输出取(加权)平均。实现简单,但对训练数据利用少了。
Stacking:接下来会详细介绍。
http://www.cnblogs.com/zhizhan/p/5826089.html

原创粉丝点击