《机器学习基石》第5讲 学习记录
来源:互联网 发布:辐射4超低配优化ini 编辑:程序博客网 时间:2024/06/04 18:48
课程为coursera上面台大的公开课《机器学习基石》
其中第五讲
证明PAC是否能够成功:其中有两个核心问题,一、我们是否能够确保Eout(g)和Ein(g)足够接近;二、我们是否可以使Ein(g)足够小。
在以上两个核心问题中,H的数量M在其中扮演着什么样的角色呢:M很小的时候对于问题一可以保证,二却非也;M很大的时候与很小的时候刚好相反。
其中M的来源:
Bm表示不好的几率,在最坏的情况下(所有Bm没有相互覆盖的情况)几率等于各个几率之和,所以对所有情况下面的不等式存在(联集)。但是当M很大甚至无穷时,后面的项很多可能会造成其加和bound也很大,甚至会远远大于1。
联集我们想的是所有Bm不重叠,但在实际情况中,不重叠的情况很少,有时还会有Hypotheses很接近的情况(h1≈h2),根据其①②的特性,或许我们可以将H分类。
然后怎样分类找到可以替代M并且是有限的m呢,老师用在二维平面内将点分类为例进行了讲解
找到有限的数字 effective(N)<(2的N次方)
举例求得增长函数
结果:对于mh为多项式增长的效果比较好,对于mh为指数增长的效果并不显著(因为前面以指数增长,后面以指数下降并不会得到显著的效果)
所以对于二维或更普遍的感知机来说,mh是不是多项式增长的呢 这是我们接下来需要考虑的。
0 0
- 《机器学习基石》第5讲 学习记录
- 《机器学习基石》第2讲 学习笔记
- 《机器学习基石》 第7讲 学习笔记
- Coursera机器学习基石 第2讲:感知器
- 机器学习基石——第15-16讲.Validation
- 机器学习基石——第5-6讲.Training versus Testing
- 机器学习基石第九讲:linear regression
- 机器学习基石第一讲:PLA
- 《机器学习基石》笔记:第一讲
- 《机器学习基石》笔记:第二讲
- 《机器学习基石》笔记:第三讲
- 机器学习基石-林轩田 第五讲笔记
- 机器学习基石第三天学习笔记
- 机器学习基石——第1-2讲.The Learning Problem
- 机器学习基石——第3-4讲.Types of Learning
- 机器学习基石——第7-8讲.The VC dimension
- 机器学习基石——第9-10讲.Linear Regression
- 机器学习基石——第11-12讲.Linear Models for Classification
- final的用法
- 项目图标名称处出现红色叹号
- 学习开发日志
- POSIX和SYSTEM的消息队列应该注意的有关问题
- VMware的四种网络连接方式
- 《机器学习基石》第5讲 学习记录
- [IOS] Storyboard全解析
- GDAL编译
- 由中根序列和后根序列重建二叉树
- 使用vim进行java编程
- box-sizing属性的理解
- OpenCV学习笔记——数据结构Mat详解
- 如何配置EF6与MYSQL
- ubuntu10.04.04系统 设置root用户默认登录用户,并设定成无需密码认证自动登录