Andrew Ng公开课学习笔记——均方误差损失函数的概率解释
来源:互联网 发布:js小球碰撞原理 编辑:程序博客网 时间:2024/05/16 19:03
回顾
回想一下线性回归模型中的几个公式:
大家对这几个公式肯定不陌生了,这里从概率角度解释为什么选择least square而不是差值的绝对值或者四次方等等作为损失函数。
概率解释
首先对最小二乘赋予概率意义
- 便于进行数学处理
- 更合理。中心极限定律告诉我们许多独立变量之和趋向于服从高斯分布,如果误差是由许多效应共同导致的,例如:卖家的情绪,买家的情绪,房子是否有花园等等。如果所有这些点是独立的,那么根据中心极限定律,这些效应的总和接近于服从高斯分布。
误差项
那么估计条件概率
注意,中间的分号表示
现在我们已经知道条件概率的分布情况了,下面我们要做的是找到最合适的
注意到所有的误差项
极大似然准则告诉我们:应该选择能使条件概率尽可能大的参数
因此最大化
总结
我们的目的是让条件概率
阅读全文
0 0
- Andrew Ng公开课学习笔记——均方误差损失函数的概率解释
- 损失函数 - Andrew Ng机器学习公开课笔记1.2
- Andrew Ng公开课学习笔记——总目录
- 机器学习 从矩阵和概率的角度解释最小均方误差函数
- 《机器学习》(Machine Learning)——Andrew Ng 斯坦福大学公开课学习笔记(一)
- 《机器学习》(Machine Learning)——Andrew Ng 斯坦福大学公开课学习笔记(二)
- 《机器学习》(Machine Learning)——Andrew Ng 斯坦福大学公开课学习笔记(三)
- Andrew Ng公开课学习笔记——Coordinate ascent(坐标上升法)
- 【转载】Andrew Ng机器学习公开课笔记 — 线性回归和梯度下降
- Andrew Ng机器学习公开课笔记 — 线性回归和梯度下降
- Andrew Ng机器学习公开课第一节笔记
- Andrew NG: 机器学习公开课纪要
- CS229 Andrew Ng 机器学习公开课作业1——监督学习
- 斯坦福大学公开课 :机器学习课程(Andrew Ng)——4、监督学习:Naive Bayes
- 斯坦福大学公开课 :机器学习课程(Andrew Ng)——8、监督学习:Learning Theory
- Andrew Ng机器学习公开课(斯坦福)——1.学习动机与资料整理
- 斯坦福大学公开课 :机器学习课程(Andrew Ng)——1、整体看一看
- Andrew NG 机器学习听课笔记(2)——过学习与欠学习,最小二乘的概率意义、logistic回归
- 注意力提高神经回路的突触功效和信噪比(Farran Briggs, George R. Mangun& W. Martin Usrey)
- 二叉树的创建和先序遍历
- 浅谈java反射机制
- JAVA基础复习十九-异常、File
- Linux进程的管理与调度(四) -- Linux下的进程类别以及其创建方式
- Andrew Ng公开课学习笔记——均方误差损失函数的概率解释
- 1638
- 文章标题
- 80. Remove Duplicates from Sorted Array II
- linux练习11.04
- 小仙女学习之包装类浅析
- IntelliJ IDEA +git安装及配置
- Sparse Array Util (C#)
- Andrew Ng's deeplearning Course1Week3 Shallow neural networks(浅层神经网络)