机器学习笔记_逻辑回归

来源:互联网 发布:mac怎么下qq游戏大厅 编辑:程序博客网 时间:2024/04/29 07:26

逻辑回归解释

  • 广义线性模型中的连接函数:线性+logit+probit+对数+多类别
  • 其中二分:logit+probit
  • 链接函数的选择源于Y随机变量分布决定了关系函数

  • Yi 服从正态分布 =>线性模型
  • Yi服从伯努利模型=>logistic模型
  • Y成功胜率的对数(logit)是线性模型 (πX=xY=1

    =>log(πi1πi)=α+βxi(两个解释:广义线性模型;对数比)
    =>πi是概率(0,1)区间(可以采用加权最小二乘计算,太复杂=>转逻辑回归函数)
    => π和x的关系为逻辑回归函数描述

π=Pr(Y=1|X1=x1,...,Xp=xp)=11+eθTx=>Y=1的概率
1π=Pr(Y=0|X1=x1,...,Xp=xp)=11+eθTx=>Y=0的概率

=>
g(z)=11+ez
hθ(x)=g(θTx)=11+eθTx

=>
g(z)=g(z)(1g(z))

=>

P(Y|X;θ)=(π)y(1π)y


Lθ=p(y¯|X;θ)=i=1m(hθ(xi))yi(1hθ(xi))1yi

=>

l(θ)=logL(θ)=i=1m[yilnπi(1πi)+ln(1πi)]

=> 迭代求导=>结果和线性回归相等

l(θ)θj=(yhθ(x))xj
=>
梯度下降

θj:=θj+α(yihθ(xi))x(i)j


连接函数:单调可导

  1. 恒等: g(u)=u => 线性回归
  2. 对数: g(u)=ln(u)=>线性转换为乘积关系
  3. Logit: g(u)=ln(u/(1-u))=>预测值控制在[0,1],对比率合适

logistic的本质

对数几率:

p(y=1|x;θ)=hθ(x)
p(y=0|x;θ)=1hθ(x)

logit(p)=logp1p=loghθ(x)1hθ(x)=wTx

对数线性的解释:

  1. Y服从二项分布;εlogistic
  2. 概率转换为比数=某事情的可能性表示为发生和不发生的比数
  3. 概率存在上限[0,1];比数没有=>广义线性回归

probit模型(累积分布形式)

  • logistic是比数对数形式

  • 广义线性模型的 η=Φ1(μ);Φ1

  • Probit(y=1)=Φ(k=1Kβkxk) => Z分数

  • 转换为正态分布的计算,计算复制

0 0
原创粉丝点击