Logistic回归原理介绍
来源:互联网 发布:英雄无敌3 mac 10.10 编辑:程序博客网 时间:2024/06/08 17:40
模型假设
根据线性回归可以预测连续的值,对于分类问题,我们需要输出0或者1。所以,在分类模型中需要将连续值转换为离散值。我们可以预测:
当
hθ 大于等于0.5时,输出为y=1;当
hθ 小于0.5时,输出为y=0。
Logistic回归模型的输出变量范围始终在0和1之间,Logistic回归模型的假设为:
其中:
x 代表特征向量g 代表逻辑函数(Logistic Function),常用逻辑函数为S形函数(Sigmoid Function),函数公式为:
该函数的图像为:
所以,整个模型的假设为:
该假设函数
判定边界
在Logistic回归中,我们预测:
当
hθ 大于等于0.5时,预测 y=1;当
hθ 小于0.5时,预测 y=0。
根据上面绘制的S形函数图象,当
- z=0时,g(z)=0.5;z>0时,g(z)>0.5;z<0时,g(z)<0.5
其中,
θTx≥0 时,预测 y=1;θTx<0 时,预测 y=0。
可以观察到
代价函数
在线性回归中,我们将代价函数定义为模型所有误差的平方和。而在逻辑回归中沿用这个定义得到的代价函数是一个非凸函数,这难以用梯度下降法求局部最小值,因此需重新定义逻辑回归的代价函数:
其中Cost()函数定义为:
将构建的Cost()函数简化如下:
带入代价函数可得到代价函数表达式为:
代价函数求解
仍然采用梯度下降法求代价函数的局部最小值:
求导后得到迭代过程:
Simultaneously update
注:虽然得到的梯度下降算法表面上看去与线性回归一样, 但是这里的
另外,在运行梯度下降算法之前,进行特征缩放依旧是非常必要的。
- Logistic回归原理介绍
- Logistic回归原理浅谈
- Logistic回归原理详解
- logistic回归原理
- Logistic回归原理
- 简要介绍Logistic 回归
- Logistic回归原理详解2
- 机器学习实战-logistic回归原理
- Logistic回归原理及公式推导
- Logistic回归原理【向上梯度求解问题】
- 机器学习 Logistic回归 原理Python实现
- Logistic回归原理及公式推导
- 【Logistic回归】原理及Python代码示例
- Logistic回归原理及公式推导
- Logistic回归原理及公式推导
- 逻辑Logistic回归原理和实现
- logistic回归算法原理及python实现
- Logistic回归原理及公式推导
- 关于Toolbar的定制--文字或图片居中
- 意外发现sizeof和strlen的区别
- 在Mac OSX上配置PySpark
- 互联网思维
- 安装centos6.7——以LVM方式
- Logistic回归原理介绍
- 【数据结构】LinkedList原理及实现学习总结
- JS学习笔记
- Andriod中绘(画)图----Canvas的使用详解
- (LeetCode 130)Surrounded Regions(并查集)
- Linux系统调用
- java 继承
- 【CQOI2016】密钥破解
- idea快捷键