逻辑回归 logistic regression 代价函数导数求解过程

来源:互联网 发布:古琴尺寸数据图 编辑:程序博客网 时间:2024/06/13 18:23

在学习机器学习的课程中,逻辑回归的对数似然函数为
J(θ)=1mmi=1yilog(hθ(xi))+(1yi)log(1hθ(xi))

对于多元线性模型,其中θTx
θxi:=θ0+θ1xi1++θpxip.
θ0
h(x)
g(x)sigmoidg(z)=11+ez
hθ(x)=g(θTx)
h(x)
loghθ(xi)=log11+eθxi=log(1+eθxi),
log(1hθ(xi))=log(111+eθxi)=log(eθxi)log(1+eθxi)=θxilog(1+eθxi),
由于归一化的函数为非凸函数,因此无法使用梯度下降,我们使用极大似然方法估计模型参数。
假设若为二分类,可以设
P(y=1|hi)=hθ(xi)
P(y=1|hi)=1hθ(xi)
似然函数可以表示为:
mI=0hθ(xi)yI[1hθ(xi)1yI]
取对数,有
J(θ)=1mmi=1yilog(hθ(xi))+(1yi)log(1hθ(xi))

J(θ)=1mmi=1[yi(log(1+eθxi))+(1yi)(θxilog(1+eθxi))]

J(θ)=1mmi=1[yiθxiθxilog(1+eθxi)]

J(θ)=1mmi=1[yiθxilog(1+eθxi)]
其中的部分可以进一步化简:
θxilog(1+eθxi)=[logeθxi+log(1+eθxi)]=log(1+eθxi).

求偏导数:

θjyiθxi=yixij,
θjlog(1+eθxi)=xijeθxi1+eθxi=xijhθ(xi),
最后可得,
θjJ(θ)==1mmi=1xij[yihθ(xi)]

原创粉丝点击