泛化误差上界的证明,说明机器能进行学习和预测的基本原理。
来源:互联网 发布:java调用通用短信接口 编辑:程序博客网 时间:2024/06/05 16:49
通过简单的泛化误差上界的证明,说明机器能进行学习和预测的基本原理。
直观的理解
在有限的训练数据中得到一个规律,认为总体也是近似这个规律的,那么就能用这个规律进行预测。比如一个大罐子里装满了红球和白球,各一半,我随手抓了一把,然后根据这些红球白球的比例预测整个罐子也是这样的比例,这样做不一定很准确,但结果总是近似的,而且如果抓出的球越多,预测结果也就越可信。
上面的例子可以简单直观地理解一下预测的原理,其实还可以通过统计的方法对这个近似(用局部的规律近似总体的规律)的可信度进行概率分析。
将问题描述成更数学的形式:
- 损失函数(loss function)或者代价函数(cost function)度量预测错误的程度,记作
L(Y,f(x)) 。 - 期望损失(expected loss),即平均意义下的损失:
Rexp(f)=Ep[L(Y,f(X))]=∫X×YL(y,f(x))P(x,y)dxdy - 经验损失(empirical loss),是关于训练数据集的平均损失:
Remp(f)=1N∑i=1NL(yi,f(xi)) - 根据大数定理,样本容量
N 趋近无穷时,经验风险趋近于期望风险:Remp(f)≈Rexp(f) ,也就是说:如果模型在训练样本中的期望风险很小,那么它也能使得期望风险很小。 - 但是当样本容量
N 不是无穷大的时候怎么办?
泛化误差上界(定理):
对二分类问题,当假设空间是有限个函数集合\mathcal F=\left \\{ f_1,f_2,\cdot \cdot \cdot ,f_d \right \\}时,对任意一个函数
其中,
不等式左端
这个定理可以从概率上说明使用经验风险近似期望风险的可信度,它与样本数量以及假设空间的复杂度有关。
上述定理可通过Hoeffding不等式来证明:
Hoeffding不等式:
Hoeffding不等式适用于有界的随机变量。设有两两独立的一系列随机变量
对任意函数
由于
令
然后就得到了:
上面的讨论只是假设空间包含有限个函数的情况下的泛化误差上界,对于一般的假设空间要找到泛化误差界应该就没这么简单了。
(注:本文为读书笔记与总结,侧重算法原理,来源为《统计学习方法》一书第一章)
作者:rubbninja
出处:http://www.cnblogs.com/rubbninja/
关于作者:目前主要研究领域为机器学习与无线定位技术,欢迎讨论与指正!
- 泛化误差上界的证明,说明机器能进行学习和预测的基本原理。
- 泛化上界的证明——为什么机器能进行学习和预测?
- 统计学习方法(1)——正则化、误差上界的证明等
- 质数无上界的证明
- 《机器学习》第二章 模型评估与选择 笔记2 泛化误差的评估方法
- Mahout和Hadoop:机器学习的基本原理
- 谈谈对泛化误差的理解
- 常用的预测误差计算方法
- 对模型方差和偏差的解释之二:泛化误差
- 【机器学习】梯度下降法的证明
- 机器学习 从矩阵和概率的角度解释最小均方误差函数
- 【机器学习】决策树算法的基本原理
- 方差、偏差、噪声、泛化误差之间的关系
- 改善机器学习预测模型的技巧
- 【机器学习-西瓜书】二、偏差-方差分解;泛化误差
- 经验误差,泛化误差
- 泛化误差,交叉验证和特征选择
- 泛化误差,交叉验证和特征选择
- nginx安装及介绍(centos6.4)
- 转:sklearn中k折交叉验证函数使用
- Java练习(1)——选择排序
- jquery中几种事件绑定的方法比较
- 机考系统公式输入扫盲帖
- 泛化误差上界的证明,说明机器能进行学习和预测的基本原理。
- oracle12c修改字段长度报错:ORA-54033要修改的列由某个虚拟表达式使用
- 判断数值中是否包含某元素并删除
- leetcode— 3Sum
- 数据结构课程设计【银行储蓄系统】
- Hadoop各商业发行版之比较
- Job for tomcat.service failed because the control process exited with error code 解决办法:
- MYSQL LIMIT函数/分页---mysql-sql
- Linux安装java8