斯坦福机器学习公开课(3)
来源:互联网 发布:网络端游排行榜2015 编辑:程序博客网 时间:2024/05/18 09:06
1、参数学习算法和非参数学习算法
参数学习算法:是一类有固定数目参数的以用来进行数据拟合的算法。
非参数学习算法:它是一个参数数量会随着训练集大小m增长的算法。
2、局部加权回归(Local Weight Regression):
局部加权回归主要是选择一个
其中
if
if
其中
的值会下降的非常快;若
的值下降速度会很慢。
3、为什么选择最小二乘法做损失函数
假定
其中
则
则
为什么假设误差服从高斯分布呢?
中心极限定律:许多独立变量之和趋于服从高斯分布。
如果误差是由许多效应共同导致的(如买家、卖家的情绪、我们没有考虑到的其他特征),如果这些效应是独立的,那么根据中心极限定理这些效应的和服从高斯分布。一方面,这个假设是合理准确的;另一方面,这有利于后续的数学计算。
在这里我们遵从频率学派的观点,认为
我们假设
根据最大似然定理
其中若使得
4、逻辑回归(Logistic Regression):
令
则
则
则利用最大似然函数:
利用梯度上升法,可求得
5、中心极限定理
5.1、独立同分布的中心极限定理
设随机变量
的分布函数
这就是说,均值为
5.2、李雅普诺夫定理
设随机变量
记
则随机变量
的分布函数
在很多问题中,所考虑的随机变量可以表示为多个独立的随机变量之和,例如,在某一时刻,一个城市的的耗电量是大量用户的耗电量总和;在物理实验中,实验的误差是由许多看到的和看不到的微小误差所合成,它们往往近似服从正态分布。
5.3 棣莫弗-拉普拉斯定理
设随机变量
- 斯坦福机器学习公开课(3)
- 斯坦福机器学习公开课随笔3
- 斯坦福机器学习公开课(2)
- 斯坦福机器学习公开课(4)
- 机器学习,斯坦福公开课
- 斯坦福机器学习公开课
- 机器学习斯坦福公开课学习笔记
- 斯坦福机器学习网易公开课笔记3
- (斯坦福机器学习公开课)梯度算法
- 斯坦福机器学习公开课笔记
- 斯坦福机器学习公开课随笔5
- 斯坦福机器学习公开课随笔6
- 斯坦福机器学习公开课随笔7
- 斯坦福机器学习公开课随笔8
- 斯坦福机器学习公开课随笔9
- 斯坦福机器学习公开课随笔10
- 斯坦福机器学习公开课随笔11
- 斯坦福机器学习公开课随笔12
- JavaScript——原型链
- 关于easyui datagrid 单元格自动换行输出的问题
- 纪实杂
- A
- psql- 致命错误 角色 highggo 不存在
- 斯坦福机器学习公开课(3)
- mysql的下载与安装
- java语言基础(87)——Properties的概述与使用
- JVM知识点总结(三):OOM
- ISE 14.7 Verilog 语言编写的模块调用
- JAVA 遍历文件夹下的所有文件(递归调用和非递归调用)
- 适配器设置模式简单理解小例子(1)
- 查找某个元素在数组中的位置
- 3sum-closest