AdaBoost

来源:互联网 发布:ubuntu for arm 编辑:程序博客网 时间:2024/06/05 05:39

一个姐姐的博客,以后要全部读一遍喽!
http://www.loyhome.com/elements_of_statistical_learining_lecture_notes/
Adaboost

Adaptive Boosting(自适应增强)
就目前来看,主要针对分类问题。
参考资料:
1.http://www.360doc.com/content/14/1109/12/20290918_423780183.shtml
这个文章都是《统计学习方法》中的内容。

2.http://www.loyhome.com/%E2%89%AA%E7%BB%9F%E8%AE%A1%E5%AD%A6%E4%B9%A0%E7%B2%BE%E8%A6%81the-elements-of-statistical-learning%E2%89%AB%E8%AF%BE%E5%A0%82%E7%AC%94%E8%AE%B0%EF%BC%88%E5%8D%81%E5%9B%9B%EF%BC%89/
自适应基函数模型、前向分步算法
在《统计学习方法》中,自适应基函数模型又叫做“加法模型”。

3.前向分步算法与AdaBoost
由前向分步算法可以推导出AdaBoost。
AdaBoost算法是前向分步加法算法的特例,

4.http://cos.name/2011/12/stories-about-statistical-learning/
有PDF文件

5.http://blog.sina.com.cn/s/blog_6ae183910101chcg.html
adaboost是存在过拟合的。
adaboost:不断增加弱分类器,训练误差的上届会不断下降

6.http://blog.csdn.net/carson2005/article/details/8130557
文章指出:虽然在原理上,比较大的迭代次数可能导致过拟合,但是仿真实验却表明,甚至当迭代次数非常大的时候,过拟合现象也很少发生。
其实这个观点在论文《A Short Introduction to Boosting》中有。

7.http://blog.csdn.net/tiandijun/article/details/48036025
比较全面的介绍

8.http://www.cnblogs.com/chaosimple/p/4029795.html
这里详细介绍了AdaBoost的流程。
关于Decision Stumps:
Decision Stumps称为单层分类器,主要用作Ensemble Method的组件(弱分类器)。一般只进行一次判定,可以包含两个或者多个叶节点。对于离散数据,可以选取该属性的任意一个数据作为判定的分割点;对于连续数据,可以选择属性的一个阈值作为分割点进行判定(大于该阈值分配到一类,小于该阈值分配到另一类;当然也可以选取多个阈值并由此得到多个叶节点)。
关于多属性数据集的处理
在每一轮训练过程中,在每个属性上根据分割的阈值不同得到多个单层分类器。在这些从所有属性上得到的分类器中选取一个带权误差率最小的单层分类器作为该轮训练的弱分类器。

9.http://blog.csdn.net/dark_scope/article/details/14103983

0 0
原创粉丝点击