机器学习实战笔记(二)

来源:互联网 发布:感情 知乎 编辑:程序博客网 时间:2024/06/13 06:03

机器学习实战笔记(二)

标签(空格分隔): 机器学习


局部加权线性回归

平方误差mi=1(yixTiw)2=(yXw)T(yXw)求导令其为0得到如下

ω̂ =(XTX)1XTy

k小的时候只用到很小的数据
ω̂ =(XTX)1XTy

在局部加权线性回归中,较小的核容易得到较低的误差,但是最小的核容易过拟合

缩减系数来理解数据

  • 首先如果数据特征多于样本点怎么办?(XTX)1会出现问题
    统计学家引入岭回归,以及lasso法

岭回归

其实就是在XTXλI
在增加如下条件下,普通最小二乘法可以得到和岭回归一样的公式

k=1nω2kλ

lasso回归

k=1n|ωk|λ

诊断偏差和方差


训练集误差和交叉验证集误差近似时:偏差/欠拟合
交叉验证集误差远大于训练集误差时:方差/过拟合

0 0