决策树sama
来源:互联网 发布:全球人工智能产业规模 编辑:程序博客网 时间:2024/04/30 13:38
o(*≥▽≤)ツ 信息增益:特征A对训练数据集D的信息增益 g(D,A),定义为集合D的经验熵 H(D) 与特征A给定条件下D的经验条件熵 H(D|A) 之差,即
g(D,A) = H(D) - H(D|A)
换句话说,就是由于特征A而使得对数据集D的分类的不确定性减少的程度。
不同的特征拥有不同的信息增益,信息增益大的特征具有更强的分类能力。
o(*≥▽≤)ツ 信息增益比:归一化后的信息增益,是特征选择的另一准则。
特征A对训练数据集D的信息增益比 g‘(D,A) 定义为其信息增益 g(D,A) 与训练数据集D的经验熵 H(D) 之比:
g‘(D,A) = g(D,A) / H(D)
o(*≥▽≤)ツ 决策树的生成:^_^ ID3算法:在决策树各个节点上应用信息增益准侧选择特征,递归地构建决策树。
^_^ C4.5算法:用信息增益比来选择特征。
o(*≥▽≤)ツ 决策树的剪枝:如果减掉该枝的损失函数比原来不剪小,那么就剪掉它,哼( -з)
- 决策树sama
- SAMA图为何物
- whuProblem 1613 - Count in Sama’s triangle
- 决策树
- 决策树
- 决策树
- 决策树
- 决策树
- 决策树
- 决策树
- 决策树
- 决策树
- 决策树
- 决策树
- 决策树
- 决策树
- 决策树
- 决策树
- setTimeout() 和setInterval()函数的比较
- 解析Crash日志(二)
- SimpleCursorAdapter介绍
- 下拉刷新
- 39. Combination Sum
- 决策树sama
- POJ题目分类 很好很有层次感
- Google Mock(Gmock)简单使用和源码分析——简单使用
- 【BZOJ1500】【codevs1758】维修数列,简析Splay的综合操作
- hdu 5676ztr loves lucky numbers(全排列函数)
- 【问题解决】Replace "..." with ellipsis character (…, &&;#8230;) ?
- Recycling Bottles
- 你不得不知的Eclipse快捷键(上)
- 基于C语言的状态机实现技术