统计学习方法(1)——正则化、误差上界的证明等

来源:互联网 发布:mac怎么安装word 编辑:程序博客网 时间:2024/06/08 02:52

First of all,最近打算系统的学习一遍《统计学习方法》这本书,把里面提到的概念和公式都好好学习和推导一遍.因此今后的一系列文章将会记录一些我在阅读本书时的一些心得体会.

统计学习作为数据挖掘的手段,其目的就是通过对已知数据的学习,对未知的数据进行预测.第一章中主要介绍了一些基本的概念如监督学习\非监督学习,损失函数的定义,过拟合与欠拟合,回归和分类任务等基本的概念在此我就不细说了,下面重点说几个印象比较深同时也是以前没怎么搞懂的知识点.

风险函数与正则化

我们知道损失函数(loss function)可以用来度量模型一次预测的好坏,风险函数可以用来评价模型在平均意义下的预测好坏。我们把理论上的模型f(x)关于联合分布P(X,Y)的平均意义下的损失称为风险函数或期望风险,如下(1)所示:

Rexp(f)=Ep[L(Y,f(x))]=xyL(y,f(x))P(x,y)dxdy
(1)

我们学习的目标就是得到一个期望风险最小的模型,但是因为我们事先无法得到联合分布P(x,y),因此无法直接计算得到风险函数。于是人们提出了如下(2)的经验风险或者经验损失函数:

Remp(f)=1Ni=1NL(yi,f(xi))
(2)
当N趋向于无穷大时,经验风险就会趋向于我们所要的期望风险。但是现实情况下我们所获得的训练样本数往往不够,如果按照经验风险最小的约束进行训练,往往会导致模型出现过拟合的现象,我们往往会在经验风险后添加正则化项,从而实现结构风险最小,可有效的防止过拟合的发生.
Rsrm(f)=1Ni=1NL(yi,f(xi))+λJ(f)
(3)

其中J(f)是关于模型f的正则化项,正则化项的具体形式可以有多种,如在回归问题中,可以是参数向量的L2范数,也可以是参数向量的L1范数。模型越复杂,则J(f)越大,对模型的惩罚力度也就越大,λ0是一个可调的系数,结构风险最小即要求模型的经验风险和模型的复杂度同时达到最小。

泛化误差上界的证明

事实上,泛化误差就是指所学习到的模型的期望风险,书中提到了二分类问题的泛化误差上界的证明问题,在此也想结合自己的理解把证明过程推导一遍。

首先证明需要用到Hoeffding不等式
以下是Hoeffding不等式的一个推论

P(ESnSnt)exp(2t2Ni=1(biai)2)
(4)
其中Sn=X1+X2++XN,令R\^(f)=1NSn为经验风险,R(f)=1NESn为期望风险,代入(4)式有
P(R(f)R(f)\^tN)exp(2t2Ni=1(biai)2)
(5)
ε=tN,对于二分类问题,我们有[ai,bi]=[0,1],代入(5)式整理后有,
P(R(f)R(f)\^ε)exp(2Nε2)
(6)
F={f1,f2,f3,...,fd}是一个集和,故
P(fF:R(f)R(f)\^ε)=P(fF{R(f)R(f)\^ε})fFP(R(f)R(f)\^ε)dexp(2Nε2)
(7)
所以对于任意f,根据(7)式都有
P(R(f)R(f)\^ε)dexp(2Nε2)
(8)
δ=dexp(2Nε2),等价的有
P(R(f)R(f)\^<ε)>1δ
(9)
即期望风险R(f)至少有1δ 的概率小于经验风险 R(f)\^ + ε,最终可得到如下的不等式
R(f)<R(f)\^+ε

ε=12N(logd+log1δ)

(10)
不等式(10)的右侧即为二分类问题的泛化误差上界.


以上即为对《统计学习方法》一书第一章阅读后的一些感想与记录,之后我会按照大概一周一篇的速度更新对后续章节的阅读思考。

1 0
原创粉丝点击