预测数值型数据:回归(二)
来源:互联网 发布:手机网络被劫持 论坛 编辑:程序博客网 时间:2024/05/22 14:54
上次我们留了个两个问题没有仔细说明,一个是局部加权线性回归,另一个是岭回归。今天依次对这两种算法进行说明。
一、局部加权线性回归
欠拟合这种问题是仅仅凭借一条直线来对数据点进行拟合的线性回归算法所无法避免的,而解决这种欠拟合问题的方法中,有一种最为简便,称之为局部加权线性回归。顾名思义,局部加权线性回归就是指给被预测点周围的数据点赋以不同的权重,让预测更加注重局部上的趋势而不是整体上的趋势,这样的操作一旦不注意就会造成过拟合,所以应用的时候要特别注意。
该算法对应的回归系数矩阵计算方法如下:
其中
权重的计算方式有很多种,其主要目标就是赋予待遇测点周围的数据点相对更高的权重,一般采用高斯核函数来实现这个目标,高斯核函数的形式如下:
我们可以注意到,
这种方法有助于避免简单线性回归所带来的欠拟合的问题,然而它可能会带来过拟合的问题,如下图所示:
从上图可以看出,中间的那张明显比剩下的两张更加合理一些,基本模拟出了数据的趋势,而图三就是
除了容易出现过拟合的问题外,局部加权线性回归的计算量也相当大,因为它对每个待遇测点做预测时都必须遍历整个数据集才能得出回归系数向量,使用时要加以注意。
二、岭回归
使用线性回归的一个前提是矩阵
在这种情况下,我们引入岭回归,回归系数的计算公式变为:
岭回归算法通过引入
可以看到,岭回归是在简单线性回归的目标函数后面加了一个二范数惩罚项,其目的在于限制回归系数矩阵的取值,减少不必要的参数。显然,对于不同的
可以看到当
简而言之,岭回归用于处理自变量之间高度相关的情形。线性回归的计算用的是最小二乘估计法,当自变量之间高度相关时,最小二乘回归估计的参数估计值会不稳定,这时如果在公式里加点东西,让它变得稳定,那就解决了这一问题了。岭回归就是这个思想。
- 预测数值型数据:回归(二)
- 预测数值型数据:回归(一)
- 预测数值型数据:回归
- 预测数值型数据:回归
- 预测数值型数据:回归
- 预测数值型数据---回归
- 预测数值型数据:回归
- 预测数值型数据:回归
- 预测数值型数据:回归
- 预测数值型数据:回归
- 《机器学习实战》预测数值型数据-回归(Regression)
- 《机器学习实战》预测数值型数据-回归(Regression)
- 预测数值型数据:回归源码分析(1)
- 预测数值型数据:回归 源码分析(2)
- 标准回归:预测数值型数据
- 【R语言 预测数值型数据】多元回归、神经网络预测数值型目标变量
- 机器学习实战——预测数值型数据:回归
- 机器学习之预测数值型数据: 回归
- Mysql的基本操作
- iOS UIView的点击事件与触摸手势
- IIR递归高斯滤波总结
- Timus 1119. Metro
- UIScrollView,点击、滑动翻页事件的区分
- 预测数值型数据:回归(二)
- 自然语言处理List of 25+ Natural Language Processing APIs
- 提示框加输入的类型
- Mac FaceTime开启后其他声音变小解决
- mysql和Myeclipse的小问题
- Android内存分析命令
- ubuntu14.04安装cuda
- Hypertable 简介 一个 C++ 的Bigtable开源实现
- HDU-5667-Sequence(矩阵快速幂+费马小定理)