【机器学习笔记】最大似然估计法与LR中 J of theta 的概率解释
来源:互联网 发布:苹果软件打不开要信任 编辑:程序博客网 时间:2024/06/03 17:19
看公开课的时候再次遇到,决心搞懂他…
首先是Andrew Ng在公开课中提到为什么LR的损失函数要用最小二乘,给出了概率解释,是在样本误差服从IID,并且误差整体服从高斯分布的最大似然函数的log表出。
最大似然估计法
先从一个比较普遍的例子讲起:
如果做一个放回的小球实验,袋子里即有不确定数量的黑色和白色的小球,我们每次拿出一个,记录颜色放回,重复100次;
如果在100次中,有70次黑球,30次白球,设每次抽到黑球的概率为
如果从数学的角度去解释,首先这是一个独立实验,即每次取出然后放回的操作,不会影响下一次的操作;记第
我们希望通过调整参数
总结一下,就是已知样本,希望通过调整模型参数来使得模型能够最大化样本情况出现的概率。
LR中 J(θ) 的概率解释
我们在LR中首先做这样的假设:
然后直接提出了最小化损失函数
假设一: 如上假设中误差 ϵ(i) 是 IID, 也就是说每次的预测误差与上一次无关
为了类比,我们首先将误差看作如上实验中的黑色小球,我们已经通过
同时我们定义似然函数
假设二: ϵ(i) 总体符合高斯分布
这样的话,我们先单独看一个
那么此时似然函数:
此时我们对
也就是说,最大化似然函数,相当于最小化
总结:
在估计误差满足独立同分布,和高斯分布两个假设的时候,误差估计的最大似然就是用最小二乘法来最小化误差
理解上来说,将误差的分布做类比,是比较方便的一个思路。
- 【机器学习笔记】最大似然估计法与LR中 J of theta 的概率解释
- 机器学习:最大似然估计与最大后验概率估计
- 机器学习概念:最大后验概率估计与最大似然估计 (Maximum posterior probability and maximum likelihood estimation)
- 最大似然估计 (MLE)与 最大后验概率(MAP)在机器学习中的应用
- 最大似然估计 (MLE)与 最大后验概率(MAP)在机器学习中的应用
- 先验概率、后验概率与最大似然估计
- 最大似然估计与最小二乘的解释
- 最易懂的 先验概率、后验概率与似然估计 解释
- 最大似然估计与最大后验概率
- 机器学习之--最大似然估计
- 机器学习基础--最大似然估计
- 最大似然估计与最大后验概率的区别与联系
- 最大似然估计MLE_和_最大后验概率MAP 的区别与联系
- 机器学习->统计学基础->贝叶斯估计,最大似然估计(MLE),最大后验估计(MAP)
- 机器学习->统计学基础->贝叶斯估计,最大似然估计(MLE),最大后验估计(MAP)
- 机器学习之概率与统计(三)- 极大似然估计
- 最大似然估计和最大后验概率估计
- 机器学习笔记之(四)用极大似然估计解释最小二乘
- JavaWeb过滤器
- java 中的main方法
- Fragment详解
- [ZJOI2006]物流运输 (洛谷1772)
- python-itertools排列组合模块
- 【机器学习笔记】最大似然估计法与LR中 J of theta 的概率解释
- 编辑几何
- Educational Codeforces Round 29
- Qt学习:VS中使用Qt出现的常见问题:QDebug和QPrintDialog的使用.
- 【poj 2356】 Find a multiple 【Ural Collegiate Programming Contest 1999】
- 麻雀游戏
- 关于谈合同时的一点经验总结
- Ajax返回PHP源代码,是apache的PHP没有被启动
- 统计学习ESL 第二章