换个角度看回归——极大似然估计
来源:互联网 发布:网络开发公司怎么起步 编辑:程序博客网 时间:2024/05/21 22:58
极大似然估计与回归
极大似然估计
先简单说下似然(likelihood)和概率(probability)的区别,两者都是对可能性的表示。概率是在给定了一定参数值后,表示了一件事物发生的可能性;而似然则反其道而行之,是在给定了一系列结果后,表示了某一组参数值的可能性。那么最大似然估计的思想,就是在给定了一组结果后哪一组参数的可能性最大;反过来说,就是使用这样一组参数,出现给定结果的可能性最大。即条件概率
根据机器学习的目的,我们就是在找寻一组参数,这组参数可以让机器取代人工进行分类、拟合等功能,从定义的角度来看,极大似然估计似乎正是我们所需要的。下面我们就用极大似然估计的方法来重新学习下线性回归和逻辑回归(LR)。
线性回归
最小二乘法
想必大家已经对线性回归足够的了解,再简单回顾一下,给定一组样本
根据上面的回顾,我们很容易得到常用的代价函数:
而我们接下来要做的就是最小化这个代价函数从而能够找到一组参数
极大似然法
那么我们现在就从极大似然估计的角度来看一下线性回归的本质。现在我们假设
现在我们来看一下我们要求的
所以
因为
同时取对数后,再根据对数公式进行化简得到:
因为第一项是常数,所以想要最大化极大似然函数,就是要
我们继续往下看,现在我们令
结果得到了:
逻辑回归
逻辑回归采用的
那么我们就来重新理解下这个
根据伯努利分布的公式我们得:
同样,因为样本之间是独立的,
同样两边去对数,则得到了我们所熟悉的:
想必大家都遇到过逻辑回归的 loss function, 损失函数的定义为
通过上面的推导,现在明白这个函数怎么得到了吧,就是为了最大化极大似然函数而将两个对数项取反而已。
总结
本篇从极大似然估计的角度来重新回顾逻辑回归和线性回归,更好的理解了为什么线性回归是基于高斯分布模型而逻辑回归是基于伯努利分布模型,通过统计学角度来解释代价函数和损失函数,更通过进一步求导推出了正规方程的由来。希望能够多一分理解。
- 换个角度看回归——极大似然估计
- 逻辑回归(logistic regression)的本质——极大似然估计
- 换个角度看LFS——反向分析LFS
- 换个角度看LFS——反向分析LFS
- 极大似然估计
- 极大似然估计
- 极大似然估计
- 极大似然估计
- 极大似然估计
- 极大似然估计
- 极大似然估计
- 极大似然估计
- 极大似然估计
- 极大似然估计
- 极大似然估计
- 极大似然估计
- 极大似然估计
- 极大似然估计
- Java线程(三):线程协作-生产者/消费者问题
- HTML中显示特殊字符,如尖括号 “<”,">"等等
- bzoj 3192: [JLOI2013]删除物品
- Linux Kernel 4.9中BBR拥塞控制算法的优势
- mac上安装Protobuf
- 换个角度看回归——极大似然估计
- android 自定义键盘控件_身份证号码输入
- 装饰者设计模式
- Android监听用户打开系统相机进行录像行为
- Java笔记之形参个数可变的方法
- 如何版本化你的API?
- Arduino使用HC05蓝牙模块与手机连接
- 比较重量(网易笔试题)
- cmd中netstat 命令详解(四)