机器学习——监督学习(一)
来源:互联网 发布:淘宝上美瞳为什么便宜 编辑:程序博客网 时间:2024/06/05 14:53
2.1由实例学习类
类学习:寻找一个涵盖所有的正例而不涵盖任何负例的描述
类识别器的蔬菜如:对识别结果有关键影响的特征
假设类:H{所有特征值的上下界作为元素组成}
最特殊假设:S覆盖所有正例且不包含所有负例的最小矩形
最一般假设:G覆盖所有正例且不包含所有负例的最大矩形
介于S~G之间的h均为无误差的有效假设,与训练集χ相容,这些h构成了解空间
C:实际类
边缘:h的边界和他相邻最近的实例(正例/负例)之间的差距。最大边缘:S与G中间
误差函数在最大边缘上的最小化:不仅仅返回0、1
诱导假设:h{设定的特征值的上下界作为元素组成}
经验误差:h的预测值不同于训练集χ中给定的预期值的训练示例所占的比例
误差函数:E(h|χ) = ∑(t = 1 ~ N) 1*(h(xt)!= rt)
泛化问题:对不在训练集中的未来实例分类的准确率问题
2.2VC维
N个点,存在pow(2,N)种表现形式,如果每种形式都能被H中的一种诱导假设h打散,则称H能散列N个点
H能散列的最多个点的数量X,即为H的vc值,VC(H) = X
直线的VC值为3,因为4个点的情况下,在(2,2)的情况无法将AD,BC两对对角线的点打散
而轴平行矩形的VC值为4,因为在5个点的情况下,在(4,1)的情况无法将ABCE与D打散
VC值度量的是假设类H的学习能力
2.3
阅读全文
0 0
- 机器学习——监督学习(一)
- 机器学习笔记 (一) 监督学习、无监督学习
- 机器学习--监督学习(一)
- 机器学习(一)监督学习
- 数据挖掘——学习笔记(机器学习--监督,非监督,半监督学习)
- 数据挖掘——学习笔记(机器学习--监督,非监督,半监督学习)
- 机器学习——监督学习,半监督学习,无监督学习,主动学习
- 监督学习之梯度下降——Andrew Ng机器学习笔记(一)
- 机器学习——监督学习习题
- 机器学习两种方法——监督学习和无监督学习(通俗理解)
- 机器学习基础(五十七)—— 监督学习、无监督学习
- 机器学习总结(一)——有监督和无监督、生成模型和判别模型
- 机器学习(3)——监督学习
- 监督学习(机器学习)
- 数据挖掘——学习笔记(机器学习--监督,非监督,半监督学习
- 机器学习(一)--- 监督学习之回归
- 机器学习(一):监督学习应用:梯度下降
- 机器学习一:监督学习笔记
- Java代码操作mongodb与mongo查询sheel对应-----(列出每一步所得出的表格)
- 四相八拍步进电机驱动
- excel拼接换行符:char(10)
- 25-IP Address Allocation I
- 日期与时间
- 机器学习——监督学习(一)
- ubuntu下启动AS 模拟器报错" Unknown AVD name "
- [bzoj1833][DP]count 数字计数
- PTA-根据后序和中序遍历输出先序遍历
- 26-LTE IP Address Allocation II
- MvpRtrofit
- arc_web_tips
- matlab基础
- 笔试、面试题收集(主要是Python Web开发)