机器学习基础(四)LMS,代价函数的求解和概率意义
来源:互联网 发布:写真机蒙泰软件 编辑:程序博客网 时间:2024/05/22 03:15
专门看一下代价函数的求解
参数求解:
上式这个更新公式就叫做LMS(least mean square)更新规则,也叫Widrow-Hoff学习规则。
这是一维的情况,我们可以拓展到多维的情况,由此得到两种不同的学习(迭代方法),即批处理梯度下降法和随机梯度下降法。
1.批处理梯度下降法(每次迭代都遍历所有样本,所欲样本遍历一遍再走第一步)
2.随机梯度下降法(走一步再走一步)
除了这种迭代法求解代价函数的最小值,还有一种normal equation的方法,现在来看一下数学推导:
但是为什么对于线性回归模型,最小平方代价函数是合理的呢?这是因为可以从概率的角度上解释(涉及到最大似然估计)
首先引入两个假设
1.目标值和输入值满足如下关系(线性关系),
可以理解为误差项或者噪声,也就是我们建模时没有考虑到的变量
2.是独立同分布,服从高斯分布,也就是说
p的意思是给定x和theta,我们可以知道y的分布,其中theta是参数,x,y都是随机变量。
那么这个条件概率是怎么和代价函数搭上关系的呢?
由独立同分布的假设,我们引入似然函数:
我们可以理解为给定多组x,y,我们得到其分布函数,这个分布函数与theta的值有关。那么怎么样theta最合理呢呢?答案theta使得概率最大最合理。所以问题就等价于求似然函数的最大值.
等价于求以下函数的最小值:
参考资料:http://cs229.stanford.edu/notes/cs229-notes1.pdf
0 0
- 机器学习基础(四)LMS,代价函数的求解和概率意义
- 深度学习笔记(五) 代价函数的梯度求解过程和方法
- 机器学习-代价函数
- 机器学习-代价函数
- 【机器学习】代价函数
- [机器学习] 代价函数(cost function)
- 机器学习中的代价函数
- 机器学习中的代价函数
- 机器学习-代价函数 I
- 机器学习-代价函数 II
- 机器学习【2】(四)线性回归的概率解释
- 机器学习基础(六)—— 交叉熵代价函数(cross-entropy error)
- 【机器学习系列之四】概率统计学习基础
- 机器学习之——判定边界和逻辑回归模型的代价函数
- 机器学习中代价函数选择的数学推导
- 机器学习数学基础(二)概率
- 机器学习笔记之代价函数(二)
- 机器学习笔记之代价函数(三)
- jquery简述
- 哈夫曼树与哈夫曼编码(C语言代码实现)
- cocos2dx学习笔记:自定义工程路径及cocoswidget配置
- Hduoj2137【水题】
- three.js 源码注释(七十)extras/geometries/CubeGeometry.js
- 机器学习基础(四)LMS,代价函数的求解和概率意义
- C++定义不知道大小的二维动态数组
- Oracle instr函数
- jquery常用技巧及常用方法列表
- iOS 8代码怪谈
- 1077.Kuchiguse
- 关于与运算和取余之间的关系
- Linux应用程序Semophore 操作
- requestFeature() must be called before adding content 错误