机器学习—经验风险最小化
来源:互联网 发布:java程序员培训学校 编辑:程序博客网 时间:2024/06/08 00:28
写在前面
本文是Andrew Ng的机器学习公开课的总结,其中涉及到偏差方差分析在PRML中有过比较严谨的数学分析,详见文章PRML——偏差方差分析。而吴老师的课上以一种更直接和相对较为通俗的方式给出了这些概念,解决的问题有如下几个:
(1). 如何形式化定义方差和偏差(针对机器学习算法)以方便对算法的讨论评价?
(2). 用训练误差评估泛化误差是否合理?
(3). 在什么条件下,我们能评估一个算法的好坏?
而这些问题的一个综合思想便是怎么选择算法,使之能够在实际问题中表现得好。
欠拟合与过拟合
在房价预测问题中,使用线性回归进行拟合数据会大致存在三种情况:
左边使用直线拟合,可以看见很多数据点并未在直线上;中间的图比左图有了很好的改进,但依旧有少量的点未在直线上;右图所有的点全在直线上,拟合效果最好。对这三种模型而言,在训练集上的拟合程度逐渐提高,但我们更加关注的是对于新的非训练数据,这些模型会表现得怎么样。经过实验发现,左图右图在新的数据集上表现不如中间图,左图的模型简单(方差小),但拟合效果不好(偏差高)。右图模型复查(方差大),拟合程度好。但这两种模型的泛化误差都比较大,我们要寻找的是像中图这种拟合程度和泛化程度有一个良好平衡的模型,也就是对方差和偏差的均衡。
经验风险最小化
预备知识
在说及这个问题之前要明白两个定理:
(1). 联合边界定理(Union bound):对于
从图上来看,明显有
(2). Hoeffding不等式:
定义及推导
为了方便讨论,定义和推导是针对二分类问题而言的,然而推广到多分类也是极其容易的。假设训练数据集为
假设空间有限
我们先讨论假设空间有限的情况,目前的假设空间是
假设空间无限
假设空间无限的情况下,借助了VC维进行说明,所谓的VC维简单理解就是在一个空间中,一个假设空间能打散的最大样本集合个数。什么叫打散呢?就是说这个假设函数能够对这些样本进行任意标记。例如2维线性分类器的VC的维为3。可以看下图:
当然,如果这些点换一种排列方式,那么2维的线性分类器无法分开。比如
所以看出打散只要能对其中一种位置情况能完全标记,那么就说可以打散。VC维常和假设函数的参数数量一致,不过也有特殊情况。借助VC维解决假设空间无限的问题有下面这些结论:
(1). 假设
也就有:
另外要使上面的结论成立的话,样本复杂度随VC维成线性增长(
- 机器学习—经验风险最小化
- 机器学习第九课,经验风险最小化
- 吴恩达机器学习之经验风险最小化
- 机器学习第九课--经验风险最小化、一致收敛
- 【斯坦福---机器学习】复习笔记之经验风险最小化
- (斯坦福机器学习笔记)之经验风险最小化
- 【机器学习】统计知识之经验风险最小化与结构风险最小化
- 机器学习中的经验风险,期望风险和结构风险最小化
- 学习理论之经验风险最小化——Andrew Ng机器学习笔记(七)
- 【斯坦福《机器学习》笔记】[第9集] 学习理论——经验风险最小化
- 机器学习知识总结:代价函数与经验风险、结构风险最小化
- 公开课机器学习笔记(16)学习理论一 经验风险最小化ERM
- 机器学习 之 SVM VC维度、样本数目与经验风险最小化的关系
- 斯坦福大学公开课机器学习课程(Andrew Ng)九经验风险最小化
- 经验风险最小化
- 经验风险最小化
- 经验风险最小化
- 经验风险最小化
- Hadoop 在centos6.4安装ssh
- 将字符串写入文件
- 博客编辑快捷键
- alloc_large_system_hash
- Python中可迭代对象、迭代器和生成器相关
- 机器学习—经验风险最小化
- solr+tomcat
- java中不常用的关键字(个人目前见得少)
- 实验四 Linux系统管理
- 区间dp入门——tyvj1055沙子合并
- 【C语言练习】1.0
- CSS Mastery Chapter 6 需要学习的点
- mark/reset方法的使用以及导致内存溢出的原因(java)
- 字符与字符串--StringBuilder类