机器学习--逻辑回归

来源:互联网 发布:淘宝一个店铺多少钱 编辑:程序博客网 时间:2024/04/30 14:29

机器学习–逻辑回归

如有错误或者疑问,欢迎交流,转载请注明出处

定义

逻辑回归(logistic regression)是分类算法

  • sigmoid函数
    g(z)=11+ez

    g(z)===1(1+ez)2ez11+ez(111+ez)g(z)(1g(z))

  • 假设函数hypotheses
    h(x)=g(θTx)=11+eθTx

    认为h(x)代表其为正例的概率

    p(y|x;θ)=h(x)y(1h(x))1y

  • 目标函数
    转换成概率之后,一般使用最大似然的方法,概率相乘,m是训练样本数目

    L(θ)=mi=1h(xi)yi(1h(xi))1yi

    loglike hood:
    l(θ)=mi=1yilogh(xi)+(1yi)log(1h(xi))

    目标就是最大化loglike hood函数

优化目标函数

  • 梯度上升
    以一个样本为例
    l(θj)/θj====(y1h(x)(1y)11h(x))θjh(x)(y1h(x)(1y)11h(x)))h(x)(1h(x))θjθTx(y(1h(x))(1y)h(x))xj(yh(x))xj

    θj:=θj+α(yh(x)xj)

    batch gradient ascent

    θj:=θj+mi=1α(yih(x(i)))x(i)j

  • 牛顿法

    首先f(x+Δx)=f(x)+f(x)Δx+f′′(x)Δx2

    利用极值点的必要条件Δf(x)=0

    得到xn+1=xnf(xn)f′′(xn)

    =====================================
    用在逻辑回归的目标函数中

    θ:=θ+H1Δ (注意这里是梯度上升)

    Δi=θil(θ)

    Hij=θiθjl(θ)