局部加权回归(HGL的机器学习笔记3)
来源:互联网 发布:seo的内链和外链怎么做 编辑:程序博客网 时间:2024/05/23 22:53
局部加权回归(Locally Weighted Regression, LWR)
局部加权回归使一种非参数方法(Non-parametric)。在每次预测新样本时会重新训练临近的数据得到新参数值。意思是每次预测数据需要依赖训练训练集,所以每次估计的参数值是不确定的。
局部加权回归优点:
需要预测的数据仅与到训练数据的距离有关,距离越近,关系越大,反之越小;
可以有效避免欠拟合,减小了较远数据的干扰,仅与较近的数据有关。
局部加权回归原理:
图1 局部加权回归原理
对于一般训练集:
参数系统为:
线性模型为:
线性回归损失函数J(θ):
局部加权回归的损失函数J(θ):
其中,τ为波长函数[1],权重之所以采取指数形式是因为这个形式最常见。
[1] 机器学习。
局部加权回归使一种非参数方法(Non-parametric)。在每次预测新样本时会重新训练临近的数据得到新参数值。意思是每次预测数据需要依赖训练训练集,所以每次估计的参数值是不确定的。
局部加权回归优点:
需要预测的数据仅与到训练数据的距离有关,距离越近,关系越大,反之越小;
可以有效避免欠拟合,减小了较远数据的干扰,仅与较近的数据有关。
局部加权回归原理:
图1 局部加权回归原理
对于一般训练集:
参数系统为:
线性模型为:
线性回归损失函数J(θ):
局部加权回归的损失函数J(θ):
其中,τ为波长函数[1],权重之所以采取指数形式是因为这个形式最常见。
[1] 机器学习。
0 0
- 局部加权回归(HGL的机器学习笔记3)
- 机器学习---局部加权回归
- 机器学习实战线性回归局部加权线性回归笔记
- 机器学习-学习笔记3.1-局部加权回归
- 机器学习-学习笔记3.1-局部加权回归
- 机器学习-学习笔记3.1-局部加权回归
- 机器学习-学习笔记3.1-局部加权回归
- Andrew Ng机器学习笔记之局部加权回归
- 机器学习第二篇(stanford大学公开课学习笔记) —局部加权回归
- 回归算法学习笔记(二)局部加权线性回归
- 《机器学习实战》--局部加权线性回归(LWR)
- 【机器学习】局部加权线性回归
- 【机器学习入门】局部加权回归
- 机器学习—局部加权线性回归
- 机器学习之局部加权线性回归
- 机器学习中的局部加权线性回归
- 【机器学习】局部加权线性回归
- 机器学习笔记(一)-局部加权回归(Locally weighted regression)LWR
- SpringMVC Controller介绍及常用注解
- Log4j
- 机器学习的模型评估与选择
- linux 中删除命令
- 网络工程师如何避免走弯路
- 局部加权回归(HGL的机器学习笔记3)
- win7关闭网络端口
- Python实现RNN
- linux系统新建一个登入用户,并且禁用root用户
- Qt信号和槽连接方式的选择
- Python-Numpy小结1
- openstack创建一个虚拟机的过程
- 全国首部Asp.net MVC5 视频课程
- 禁止jsp跳转过滤器编写