线性回归和逻辑回归的损失函数
来源:互联网 发布:淘宝隐藏导航条 编辑:程序博客网 时间:2024/06/05 17:39
(1)线性回归的误差函数为什么是平方损失函数
参考:http://blog.csdn.net/saltriver/article/details/57544704
设线性回归的预测函数h(xi),实际值为yi 相应的误差为
所以有:yi =h(xi) + (i = 1,2,3,..., n)
通常认为误差服从参数为的正态分布,即:
我们想要求出参数 使得该分布能够更好地表示 (i = 1,2,3,..., n),这就转化为了由已知样本(独立同分布的)和样本服从的分布,求其参数的问题,利用极大似然估计(使得样本的似然度最大),即极大似然函数为:
对上式取对数,得到对数似然函数为:
针对 ,分别对和求偏导,并令其为0,可得:
以上所求的是针对误差,我们当然希望误差越小越好,所以希望和 越小越好,即
由上式可以看出平方损失函数的形式。
(2)逻辑回归的损失函数为什么为对数损失函数
原理与上述线性回归的情况类似,都是利用了极大似然估计。
对于逻辑回归模型,假设服从伯努利分布(0-1分布)。
同样假设预测函数为:h(xi),实际值为yi
其中,
我们希望当实际值为yi 时,预测函数h(xi)的值越大越好,采用极大似然估计,极大似然函数为:
取对数,得到对数似然函数为:
由上面可知,逻辑回归直接将对数似然函数取负,将最大化对数似然函数 转化为为最小化 负的对数似然函数,即得到我们需要的损失函数,所以,逻辑回归模型并没有像线性回归那样求似然函数的极值。
- 线性回归和逻辑回归的损失函数
- 线性回归、逻辑回归、损失函数
- 线性回归、逻辑回归、损失函数
- 线性回归、逻辑回归、损失函数
- 线性回归与逻辑回归的损失函数选择
- 线性回归的损失函数与逻辑回归的损失函数
- 线性回归和逻辑回归的区别
- 逻辑回归-损失函数详解
- 线性回归和逻辑回归
- 线性回归和逻辑回归
- 线性回归和逻辑回归
- 线性回归和逻辑回归
- 机器学习---之逻辑回归中损失函数的由来
- 逻辑回归为什么使用对数损失函数
- 逻辑回归:损失函数与梯度下降
- 【机器学习】线性回归和逻辑回归的理解
- 线性回归和逻辑回归的正则化regularization
- 关于线性回归和逻辑回归一些深入的思考
- [计算机网络] 基础
- Java程序员们值得一看的好书推荐
- JAVA-3.2-认识面向对象
- 设计模式:命令模式
- javascript基本类型和引用类型浅析
- 线性回归和逻辑回归的损失函数
- 三子棋小游戏
- Truncate Table 与DELETE FROM
- shell变量
- Bootstrap笔记
- 欢迎使用CSDN-markdown编辑器
- Ubuntu server v12 Firebird 2.1 创建数据库
- Git 配置及代码下载
- [jzoj]1004. 【东莞市选2007】格斗俱乐部(基础区间DP的各种思路)