四、统计学习理论:有界实损失函数上的大数定理

来源:互联网 发布:网络犯罪调查 编辑:程序博客网 时间:2024/06/05 21:50

前一篇文章,介绍了指示损失函数下的机器学习ERP原则一致性的充分条件,从有限指示损失函数集推广到了无限的指示损失函数集。
本文将介绍有界实损失函数集上的一致收敛的条件。
为了区别将前文中的损失函数集记为:{Q(x;θ)|θΛ}
假设样本是m维的随机变量,记:
R(θ)=RmQ(x,θ)dF(x)

Rexp(X,θ)=1nni=1Q(xi,θ)X代表任意一个样本集,有n个样本。

目标是分析:

P(supθΛR(θ)Rexp(X,θ)ε)n0(1)
成立的条件。


有界实损失函数上的大数定理
先讨论实损失函数|Q(x,θ)|<ϕ(x)<是有界实函数。
假定:aQ(x,θ)b从新表述一下RmQ(x,θ)dF(x):

事实上,可以假设a=0,如果a0,只需变换一下损失函数:Q(x,θ)=Q(x,θ)a都有:

RmQ(x,θ)dF(x)1nk=1nQ(xk,θ)=RmQ(x,θ)dF(x)1nk=1nQ(xk,θ)=supθΛR(θ)Rexp(X,θ)

因此要求a=0并不是必须的。为了方便描述,下文中假定a=0B=ba=b,

从Lebesgue积分角度来看R(θ)Rexp(X,θ)

RmQ(x,θ)dF(x)=limlBli=0l1P{Q(x,θ)>iBl}

对于Rexp(X,θ),同样我们有:
1nk=1nQ(xk,θ)=limlBli=0l1v{xk:Q(xk,θ)>iBl}

因此有:

RmQ(x,θ)dF(x)1nk=1nQ(xk,θ)=limlBli=0l1(P{Q(x,θ)>iBl}v{xk:Q(xk,θ)>iBl})limlBli=0l1(P{Q(x,θ)>iBl}v{xk:Q(xk,θ)>iBl})limlBli=0l1supβ(a,b)(P{Q(x,θ)>β}v{xk:Q(xk,θ)>β})=Bsupβ(a,b)(P{Q(x,θ)>β}v{xk:Q(xk,θ)>β})=Bsupβ(a,b)(Rm1{Q(x,θ)β}dF(x)k=1n1{Q(xk,θ)β})

由此我们得到:
supθΛRmQ(x,θ)dF(x)1nk=1nQ(xk,θ)BsupθΛ;β(a,b)(Rm1{Q(x,θ)β}dF(x)k=1n1{Q(xk,θ)β})

将有界实函数转化到指示损失函数I(x,θ,β)=1{Q(x,θ)β}上,不过增加了一个参数β,根据指示损失函数上的结论,得到下面的不等式:
P(supθΛRmQ(x,θ)dF(x)1nk=1nQ(xk,θ)>ε)P(supθΛ;β(a,b)Rm1{Q(x,θ)β}dF(x)k=1n1{Q(xk,θ)β}>εB)=P(supθΛ;β(a,b)RmI(x,θ,β)dF(x)k=1nI(xi,θ,β)>εB)2NΛ,β(n)eε22B2n=2exp((HΛ,βvc(n)nε22B2)n)

于是有下面的定理:
定理3:在实损失函数集|Q(x,θ)|<上,ε>0,期望风险和经验风险满足如下不等式:
P(supθΛRmQ(x,θ)dF(x)1nk=1nQ(xk,θ)>ε)2exp((HΛ,βvc(n)nε22B2)n)

推论3:在实损失函数集|Q(x,θ)|<上,统计学习机期望风险与经验风险一致双边收敛的充分条件是:
limnHΛ,βvc(n)n=0

经将有界实损失函数转化到指示损失函数上的方法,我们找到了在有界实损失函数集期望风险和经验风险双边一致收敛的充分条件。

原创粉丝点击