回归(regression)和logistic regression

来源:互联网 发布:火车头数据采集器简介 编辑:程序博客网 时间:2024/06/05 22:31

回归

“回归”就是“回归本质”的意思。用一个函数去拟合一组数据(xi,yi),随着数据越来越多,用来拟合的这个曲线就越来越接近真实的情况。这里xi可以是一个向量, 假设xiRn, 若用线性回归的方法, 首先把它扩展为n+1维, 用来拟合的参数θRn+1; 其中x0=1, 对应θ0为截距. , 所以函数拟合的是一个n+2维的超平面(θTxy=0). 拟合后得到的超平面, 输出前n+1维的输入, 可以得到一个输出y.
* linear regression:用直线拟合
* logistci regression:用一种曲线拟合(曲线的形状和sigmoid有什么联系?)

Logistics regression

θTx是linear regression,套一层sigmoid将输出映射到(0,1)

假设训练集为(x(1),y(1)),(x(2),y(2)),...,(x(m),y(m));输入特征为x(i)Rn+1(我们对符号的约定如下:特征向量x(i)的维度为n+1,其中x0=1,对应截距项)。由于logistic回归是针对二分类问题的,因此类标记y(i){0,1}。假设函数(hypothesis function) 如下:

hθ(x)=11+eθTx,θRn+1

Interpretion:hθ(x(i))=Sigmoid(θTx(i))y(i)=1的概率,1hθ(x(i))y(i)=0的概率(吴恩达,Logistic Regression: Optimization Objective I)

训练θ,使其能最小化代价函数:

J(θ)=1m[i=1mloghθ(x(i))+(1y(i))log(1hθ(x(i)))]

为什么cost function定义为这样?
* 首先的确可以定义为squared error的形式,即
J(θ)=1mi=1m(hθ(x)y(i))2

但是该曲线not convex,即很难找到全局最优。定义为上面的形式则convex。
这里写图片描述
* 对某个(x(i),y(i))分类讨论:
1. 当y(i)=1时,cost when hθ(x(i))0; cost0 when hθ(x(i))1(i.e. y(i))
这里写图片描述
2. 当y(i)=0时,cost0(i.e. y(i)) when hθ(x(i))0; cost when hθ(x(i))1
这里写图片描述
* 用log函数的意义在于,它就是好用,而且convex。(这里我也不明白,就先这么记着)

0 0
原创粉丝点击