一元线性回归

来源:互联网 发布:mac 音乐 编辑:程序博客网 时间:2024/04/30 06:26

假设(x1,y1),x2,y2),...,xn,yn)是总体的n个观测值,一元线性回归的hypothesis函数:
hθ(x)=θ0+θ1x
观测值标示为估计值加误差的形式:
yi=θ0+θ1xi+ei
误差的平方和:

Q=i=1n(yiθ0θ1xi)2

最小二乘法是通过最小化Q来求θ0,θ1

求解方法1 偏导为0,Q取最小值
求Q对于θ0,θ1的偏导:

Qθ1=2i=1n(yiθ0θ1xi)xi

Qθ0=2i=1n(yiθ0θ1xi)

偏导为0,Q取最小值得到:
θ1=nxiyixiyinx2i(xi)2

θ0=x2iyixixiyinx2i(xi)2

求解方法2 直观图形
首先把所以的点都标准化

xi=xiμxσx

yi=yiμyσy

最佳直线为
y=rx

r=(xix¯)(yiy¯)nσxσyxiyi的相关系数,即
yμyσyrxμxσx

θ1=rσyσx

θ0=μyrμxσyσx

把r代入得到
θ1=nxiyixiyinx2i(xi)2

θ0=x2iyixixiyinx2i(xi)2

求解方法3 梯度下降
start with some θ0, θ1
repeat until convergence{
θ0=θ0aQθ0

θ1=θ1aQθ1

}
a是步长,learning rate
hopefully we have the minimum of Q

第一种偏导为零是直接法,第三种梯度下降是迭代法,都是求误差平方和的方法。θ0,θ1的初始值,步长都影响梯度下降的结果。

1 0