决策树相关知识点
来源:互联网 发布:电信是什么网络制式 编辑:程序博客网 时间:2024/05/19 13:22
决策树
if-then 规则集合
决策树学习是从训练集估计条件概率模型
损失函数(正则化 极大似然)
其中T为决策树,N_t 为决策树子叶节点个数,N_tk为k类样本的点数。
(如何由极大化似然推导?)
Tree-based methods partition the feature space into a set of rectangles, and then fit asimple model(like a constant)in each one不一定为常数 via ESL2 P305
一般步骤:
特征选择
决策树生成
决策树枝剪
Output : Tree
特征选择:
信息增益/互信息(Information Gain/mutual information)最大化:
信息增益意义: 得知特征X从而使特征Y不确定性减小的程度
信息增益比(Information Gain Ratio)
该针对 IG 趋向于选择特征值较多的特征的问题
但IGR对可取值较少的属性有偏好
Gini系数:
gini反应了数据纯度
生成
ID3/C4.5/CART分别采用
IG_max
IGR_max from IG>IG_ave,
Gini_min
枝剪
预枝剪
对单点展开进行评估,当精度下降则剪去
后枝剪
损失函数最小化,
递归的从各个子叶节点自底向上,判断损失函数是否减小
一些trick & Issue (ESL2 310-313)
连续值处理(ESL2 P310 Catogorical Predictor)
二分法 :寻找一个切分使得Gain最大
当值很多时会overfitting
缺失值处理(周志华 85)
建树时的缺失值 — 特征选择标准的计算
以Gain为例
预测时的缺失值
以样本集中各种属性数目的比例,概率的划分到各个节点中
多变量决策(周志华 88)/Linear CombinationSplit(ESL)
提高分类能力,损失可解释性
The Loss Matrix ??
损失函数中α的adaptively choose
用 weakest link pruning方法
Why binary splits
The problem is that multiway splits fragment the data too quickly, leaving insufficient data at the next level down. Hence we would want to use such splits only when needed. Since multiway splits can be achieved by a series of binary splits, the latter are preferred.
一些缺点
不稳定(Instability of Trees)和不光滑(Lack of Smoothness)
Adaboosting Tree
- 决策树相关知识点
- 决策树的相关概念
- 决策树相关知识小结
- 决策树相关问题
- 决策树相关算法理解
- 决策树的完整知识点总结
- 机器学习——决策树 知识点总结
- EJB的相关知识点
- EJB的相关知识点
- XML相关知识点
- ACTIVEMQ相关知识点
- addBehavior相关知识点
- Web Service相关知识点
- J2EE相关知识点
- Tomcat相关知识点
- Java相关知识点杂记
- tomcat相关知识点
- Session的相关知识点
- 183.131.221.3奚梦瑶维密摔跤,是不幸?是机遇?
- 22222222
- 运动物体的检测--对视频检测的改进
- websocket基础
- HTTP Status 500
- 决策树相关知识点
- matplotlib axis
- C++ 数据输入之cin与cin.getline()
- .net体系结构
- 【poj1743】Musical Theme 后缀数组/不可重叠最长重复子串 + 双指针扫描
- Openssl Encrypt
- 【java基础:net】基于多线程的TCP图片上传客户端与服务端Demonstration
- 如何向普通人解释机器学习、数据挖掘
- REACT入门