逻辑斯谛(Logistic)回归

来源:互联网 发布:cf刷点卷软件 编辑:程序博客网 时间:2024/05/17 05:00

Logistic回归模型

logistic分布

逻辑斯谛分布

设X是连续随机变量,X具有下列分布函数和密度函数
F(x)=P(Xx)=11+e(xμ)/γ
f(x)=F(x)=e(xμ)/γγ(1+e(xμ)/γ)2
密度函数和分布函数如图所示
这里写图片描述
分布函数图形是一条S形曲线。该曲线以点(μ,12)位中心对称,即满足
F(x+μ)12=F(x+μ)+12
曲线在中心附近增长速度较快,两端较慢。
形状参数γ的值越小,曲线在中心附近增长越快。

二项逻辑回归模型

二项逻辑回归模型是如下的条件概率分布

P(Y=1|x)P(Y=0|x)=exp(wx)+b1+exp(wx+b)(6.5)=11+exp(wx+b)(6.6)

一个事件的几率(odds)是指该事件发生的概率与不发生的概率的比值。如果事件发生的概率是p,那么该事件的几率就是p1p,该事件发生的对数几率(log odds)或logit函数是
logit(p)=logp1p
对逻辑斯谛回归而言,由式(6.5)与式(6.6)得
logP(Y=1|x)1P(Y=1|x)=wx
逻辑回归模型中,输出Y=1的对数几率是输入x的线性函数。

模型参数估计

极大似然估计
P(Y=1|x)=π(x),P(Y=0|x)=1π(x)
似然函数为
i=1N[π(xi)]yi[1π(xi)]1yi
对数似然函数为

L(w)=i=1N[yilogπ(xi)+(1yi)log(1π(xi))]=i=1N[yilogπ(xi)1π(xi)+log(1π(xi))]=i=1N[yi(wxi)log(1+exp(wxi))]

对L(w)求极大值,得到w的估计值。
这样,问题就变成了以对数似然函数为目标函数的最优化问题。
通常采用梯度下降(这里是上升,最大化对数似然函数)法及拟牛顿法

梯度下降法

L(w)w=i=1Nxi(yiπ(x)),其中π(x)=exp(wx)1+exp(wx)
设学习率为α,则梯度上升法的更新公式为
wj=wj+αi=1Nxi(yiπ(x))

多项逻辑斯谛回归

假设离散型随机变量Y的取值集合是1,2,...,K,那么多项逻辑斯谛回归模型是

P(Y=k|x)=exp(wkx)1+k=1K1exp(wkx),k=1,...,K1P(Y=K|x)=11+k=1K1exp(wkx)

sigmoid函数的推导

根据对数几率回归推导

这里写图片描述

根据最大熵模型推导

http://blog.csdn.net/u012151283/article/details/77619799#t2
π(x)u=P(Y=u|X)
根据最大熵模型,有

π(x)v0v=1kπ(x)v=1i=1nx(i)jπ(x(i))u=i=1nf(u,y(i))x(i)j(for all u,j)

参考资料

《统计学习方法》第6章

原创粉丝点击