线性回归与逻辑回归的损失函数选择
来源:互联网 发布:mac看不到备份文件 编辑:程序博客网 时间:2024/06/16 05:55
线性回归损失函数为什么要用平方形式 :
对于训练数据样本
我们构建了一个损失函数:
表示每个训练数据点
简单的说,是因为使用平方形式的时候,使用的是“最小二乘法”的思想,这里的“二乘”指的是用平方来度量观测点与估计点的距离(远近),“最小”指的是参数值要保证各个观测点与估计点的距离的平方和达到最小。
最小二乘法以估计值与观测值的平方和作为损失函数,在误差服从正态分布的前提下,与极大似然估计的思想在本质上是相同。对于极大似然估计,可以参考下前期文章《极大似然估计》。
我们设观测输出与预估数据之间的误差为:
我们通常认为
我们求的参数
据极大似然估计函数的定义,令:
取对数似然函数:
分别求
我们在线性回归中要求得最佳拟合直线
差)的情况下
而这与最前面构建的平方形式损失函数本质上是等价的。
逻辑回归为什么使用对数损失函数
逻辑回归模型是:
在模型的数学形式确定后,剩下的就是如何去求解模型中的参数
对于逻辑回归模型,假定的概率分布是伯努利分布,根据伯努利分布的定义,其概率质量函数PMF为:
P(X=n)={1−pn=0pn=1
所以,似然函数可以写成:
对数似然函数则为:
而在机器学习领域,我们经常使用损失函数(loss function,或称为代价函数,cost function)来衡量模型预测的好坏。常用的有0-1损失,平方损失,绝对损失,对数损失等。其中对数损失在单个数据点上的定义为:
全体样本的损失函数则可表达为:
可以看到,这个对数损失函数与上面的极大似然估计的对数似然函数本质上是等价的。所以逻辑回归直接采用对数损失函数来求参数,实际上与采用极大似然估计来求参数是一致的。
原博文地址:http://blog.csdn.net/saltriver/article/details/57544704
http://blog.csdn.net/saltriver/article/details/63683092
1 0
- 线性回归与逻辑回归的损失函数选择
- 线性回归的损失函数与逻辑回归的损失函数
- 线性回归、逻辑回归、损失函数
- 线性回归、逻辑回归、损失函数
- 线性回归、逻辑回归、损失函数
- 线性回归和逻辑回归的损失函数
- 逻辑回归:损失函数与梯度下降
- 回归 ---- 线性回归,多元回归与逻辑回归的关系
- 逻辑回归-损失函数详解
- 线性回归与逻辑回归
- 线性回归与逻辑回归
- 线性回归与逻辑回归
- 线性回归与逻辑回归
- 逻辑回归与线性回归
- 线性回归与逻辑回归
- 线性回归与逻辑回归
- 线性回归与逻辑回归
- 线性回归与逻辑回归
- Java多线程方面的编程笔试题(通过实现Runnable接口启动线程)
- Redirecting to /bin/systemctl restart sshd.service
- 数据结构框架图
- 【模拟】洛谷 P1001 A+B Problem
- srs2.0测试hls
- 线性回归与逻辑回归的损失函数选择
- centos7配置lamp成功安装过
- vmware workstation 12.5 pro
- c++ 时间类型详解(time_t和tm)
- eclipse下项目的包展示样式
- csv文件操作
- 进入C++ --- main() 函数
- Java虚拟机学习笔记(一)
- StringBuffer的用法