cs229-lecture3-学习笔记
来源:互联网 发布:知乎什么时候上线的 编辑:程序博客网 时间:2024/05/22 15:46
局部加权回归(locally weighted regression)
参数化算法:有固定参数来拟合数据的算法
非参数算法:参数变化的算法,例如局部加权回归(LWR)
LWR:选择参数使拟合最小化
,
其中,
即在距离目标点较近的点将获得较大的权值(时趋近于1),距离较远的点将获得较小的权值(时趋近于0),因此每次进行预测(x不同),都需要重新计算所有权值,称为波长参数(bandwidth parameter),直观上看其控制了权值随距离增大而下降的速率,其值越小,所得的权值函数(钟型图像)越陡,反之则越平坦。
线性回归模型的概率解释
假设真实房价值与预测值之间相差一个误差项,即,误差项是由多个相互独立的随机变量(包括没有捕获的特征值和随机噪声等)之和,由中心极限定理,可知误差项服从均值为0的正态分布即,其概率密度函数
因此在给定参数的房价也是服从正态分布的,即,
而
令
所以问题变为选择参数使最大化,
令
所以问题等同与选择参数使
最小化(注意是正数),
这就是线性模型中选择代价函数的原因。
logistics 回归(logistics regression)
logistics 回归算法是一种二元分类算法(输出值是个离散的,如只能取两个值0/1),
假设,
其假设函数为
,
其中一般被称为logistics 函数或sigmoid 函数,
图像特点:当z小于零趋向于负半轴则g(z)趋向于0,当z大于零趋向于正半轴则g(z)趋向于1,与y轴相交于(0,0.5)
所以
合并得
所以
而
接下来用梯度下降法求使最大化,即
(注意是加不是减,因为是最大化)
而梯度和线性回归的几乎一样
所以对所有有
0 0
- cs229-lecture3-学习笔记
- cs229-lecture2-学习笔记
- cs229-lecture4-学习笔记
- 机器学习 cs229学习笔记1
- CS229学习笔记之生成学习算法
- MIT算法导论学习笔记-Lecture3:分治法
- 神经网络学习笔记 - lecture3:The backpropagation learning proccedure
- cs229学习笔记之支持向量机
- 【cs229】斯坦福机器学习笔记(一)
- CS229学习笔记之广义线性模型
- CS229学习笔记之朴素贝叶斯
- 【cs229】斯坦福机器学习笔记(一)
- Lecture3
- 机器学习 cs229学习笔记5 (ICA Independent components analysis)
- Lecture3: 不同种类的学习
- 台湾大学机器学习基石Lecture3
- 第0节-斯坦福cs229机器学习笔记
- 【学习笔记】斯坦福大学公开课: cs229 Learning Theory【下】
- 单链表的一些操作
- eclipse debug source not found
- UvaLive 6440 - Emergency Handling(数据结构)
- Linux网络编程入门 (转载)
- iOS应用性能调优的25个建议和技巧
- cs229-lecture3-学习笔记
- UIKit class hierarchy
- Xenomai 设定中断亲和性
- linux mysqli extension is missing
- Mysql中文乱码问题完美解决方案
- tomcat攻略
- poj2063 Investment
- 一张图搞懂分布式大型网站的前世今生
- android动画