学习理论之经验风险最小化——Andrew Ng机器学习笔记(七)

来源:互联网 发布:pkpm建筑设计软件 编辑:程序博客网 时间:2024/06/05 09:20

内容提要

到现在监督式学习已经基本上学完了,这篇博客主要想写的是一些关于机器学习的理论,即什么时候用什么学习算法,什么样的学习算法有什么样的特点或者优点。在拟合的时候应该怎么选取拟合模型实际上是在欠拟合和过拟合之间做着权衡,我们训练集大小为多大时合适,最终得到的拟合函数效果怎么样,它的效果如何评价等等,下面我们主要介绍的经验风险最小理论,就是来回答这些问题。

经验风险最小

为了说明经验风险最小,我们首先介绍两个定理:

  1. (The union bound)假设A1,A2...Akk个不同的事件,那么P(A1A2...Ak)P(A1)+P(A2)+...+P(Ak)。你可以画一个文氏图去理解他。
  2. (Hoeffding inequality)假设Z1,Z2...Zmm个独立同分布(iid)服从伯努利分布的变量,参数为ϕ。即p(Zi=1)=ϕ,p(Zi=0)=1ϕ,令ϕ^=(1/m)mi=1Ziϕ^也是随机变量,对于任意的γ>0,则有P(|ϕϕ^|>γ)2exp(2γ2m)

Hoeffding inequality说明了伯努利分布参数的估计值与真值之间的误差是有上限的,并且可以看出随着m的增大,这个上限会越来越小,也就是说估计值越来越接近真值。

我们还是利用二维分类问题来说明这个理论,y{0,1},训练集S={x(i),x(j);i=1,2,...m},并且(x(i),x(j))均是来自分布D的独立同分布变量,h为估计函数,我们定义训练误差(training error or empirical risk or empirical error)如下:

1.png

其实这个式子描述就是分类出错的比例,其中,1{.}指示器函数,即 1{true}=1;1{false}=0,y{0,1},m是训练集的大小,即训练样本的个数。

同样的我们也定义一般误差(generalization error):

2.png

这个误差是我们理论上计算出来的误差,一般的在统计中带有“ ^ ”表示的估计量,估计的意思就是我们通过样本来计算这个变量的值。反之,一般理论值就不带“ ^ ”。

我们之前介绍过线性分类函数的一般形式,hθ(x)=θTx,下载我们假设这样一个集合:

3.png

称为:假设集合(hypothesis class)。这是一个分类函数集合,因为θ的不同使得各个元素不同,分类函数可能是局部回归得到,逻辑回归得到的等等,总之可以解决我们当前问题的我们可以得到的分类函数。那么我们就像找出那个使得训练误差最小的θ作为我们分类函数的参数。

4.png

我们将这个过程称为:经验风险最小(empirical risk minimization (ERM))。和这个式子同样的道理我们可以得到训练情况下最优的分类函数。

5.png

下面我们就依照假设集合H有限还是无限两方面进行讨论

H集合有限的情况

设假设集合中总共有k个假设函数,即H={h1,h2...hk},这些函数h都是从x{0,1}的映射。为了书写方便我们定义:

6.png

我们研究的问题(x,y)DhiH,则Z就是独立同分布变量。下来就可以将训练误差表示成:

7.png

Z是服从伯努利分布的,他的期望是ε(hi),利用Hoeffding不等式就可以得到下面的式子:

8.png

这个式子表明随着训练样本个数m的增大,训练误差是逐渐接近理论误差的。我们又令

9.png

则:

10.png

结合union bound进一步我们可以做出如下的推导:

11.png

利用基本的概率只是我们又可以得到下面的式子:

12.png

从这个式子可以看出理论误差和训练误差是有一个上界的。这一我们在这讨论的一个原因,我们想知道这个上界。除此之外,我们还想知道后面的这个概率是多少。我们前面说了,随着训练集大小m的增大,理论误差和训练误差在接近,并且是依一定的概率。我们也想知道给了一定的误差概率之后,我们的m到底取多大是合适的。

在给定γ的前提下,令

13.png

可以得到,当

14.png

可以保证对于任意的hiH,|ε(hi)ε^(hi)|γ的概率下界是1δ。在这里可以看出,训练集m的大小影响着算法的有效性,所以我们也将他称之为算法的样本复杂度。

同样的在给定δ的情况下,我们可以得到训练误差和理论误差的上界:

15.png

其中

16.png

下来我们在定义:

17.png

hH中最合理的假设函数,那么我们可以得到下面的推导:

18.png

经过上面的这些证明,我们可以得到这样一个定理:当|H|=k,m,δ时,有:

19.png

推论:|H|=k,m,δ时,为了

20.png

则:

21.png

H集合无线的情况

首先我们来介绍分散的概念:给定一个集合S={x(i),...,x(d)},如果假设集H中存在hi可以将S中的所有点按标签分开({y(1),...,y(d)}),我们就说H可以分散S

VC维(Vapnik-Chervonenkis dimension):给定一个假设集合H,这个H可以分散集合S的最大个数为VC维,记为VCH=d,如果H可以将任意的S分散,我们就说这个H的VC为无穷大,记为VC(H)=

举一个简单的例子:假如S中有3个点,给定一个线性分类函数的假设集合,y{0,1},我们总是可以找到一条直线将正负标签的点分隔开来。如下图:

22.png

需要说明的是,这是一种存在性的计算。意思就是只要这三个点给定一个排列方式,然后取遍所有标签的情况,我们都可以在这个假设集合H中找到hi将他们完美的分隔开来。只要存在这么一种情况,并且再增加一个点这个结论就不成立了。比如这个例子中,当点增加至4个时,就不满足上面的情况(你随便画画,就可以看到当这个点根据y的不同进行重组时,是无法用一条直线将他们分开的)。所以说线性假设集的VC维维3

下面再来看一个定理,这是数学家证明的,过程比较复杂,所以我们只看结论。
给定一个假设集H,并且VC(H) = d,在至少满足1δ这个概率的情况下,我们可以在H中找到一个h满足下面这个不等式:

23.png

和前面一样我们可以得到下面这个不等式:

24.png

从这个式子可以看出来,当VC维是有限的情况下,当m趋于无穷大的时候,训练误差是收敛的。我们也可以得到如下的推论:
对于H中的所有h,|ε(h)ε^(h)|γ至少以1δ的概率成立,所以 m=Oγ,δ(d)

这个式子中的O的下标表示γ,δ为常数时,m和d为线性关系。


end

45.jpg

0 0