[机器学习]集成学习简单投票法概率
来源:互联网 发布:ubuntu wine 1.9 编辑:程序博客网 时间:2024/05/18 01:20
基于周志华的西瓜书(p.172)解释集成学习简单投票法概率。并参考知乎董豪晨的回答
对于二分类问题
则对于用简单投票法和T个分类器,超过半数的分类器分类正确,则集成分类就正确:
H(x)=sign(∑i=1Thi(x))
证明:
由Hoeffding不等式(霍夫丁不等式):
若硬币正面朝上概率为
p ,反面朝上概率为1−p=q ,令H(n) 为抛硬币n 次硬币所得正面朝上的次数,则最多k 次正面朝上的概率为:
P(H(n)≤k)=∑i=0kCinpi(1−p)n−i
若δ>0,K=(p−δ)n ,则有:
P(H(n)≤(p−δ)n)≤e−2δ2n
若要正确分类率H(x) >0.5(即至少有T/2个分类器分类正确),应该满足公式:
P(H(n)≤(p−δ)T/2)≤e−2δ2n
上式中(p−δ)T=[T2] ,所以有
δ=p−1T[T2]≥p−12=2p−12=1−2q2
又∀δ>0 ,所以
p−1T[T2]≥0
因此要使超过一半的分类器分类正确,则p≥0.5 ,因而超过半数的分类器分类正确,则集成分类就正确。
当δ=1−2qq
P(H(n)≤T2)=∑i=0T2Cinpi(1−p)T−i≤e−2(12−q)2T=e−T2(1−2q)2
由上式可知,在每个分类器相互独立情况下,随着分类器数量T的增加,集成的错误率趋向于0。
阅读全文
0 0
- [机器学习]集成学习简单投票法概率
- 机器学习:集成学习
- 机器学习-集成学习
- 【机器学习】集成学习
- [机器学习]集成学习
- 机器学习--集成学习
- 机器学习-集成学习方法
- 机器学习-集成算法
- 机器学习必备概率基础知识
- 机器学习中的概率公式
- 机器学习中的概率问题
- 机器学习算法 -- 集成学习
- 机器学习算法 -- 集成学习
- 机器学习-->集成学习-->Adaboost
- 机器学习_集成学习
- 【机器学习】集成学习总结
- 机器学习之集成学习
- 机器学习7集成学习方法
- Namenode HA原理以及配置
- 调用相册,相机
- python实现链表的深度优先遍历
- RecyclerView切换布局(列表→网格)
- 再一遍的执行力
- [机器学习]集成学习简单投票法概率
- 蓝桥杯 算法训练 前缀表达式
- Android_XRecyclerView上拉下拉加载数据
- 基于OpenCV的视频图像组态 (9):CEF浏览器初步
- bootstrap multiselect插件级联选择框操作 内容从json文件获取
- arm汇编
- 参加浙江中医药大学第十一届程序设计竞赛(ACM赛制)的总结
- 【Java】4.LinkedBlockingQueue使用与分析
- 蓝鲸巨打联盟 DP+三分