回归(Regression)

来源:互联网 发布:vb if then 编辑:程序博客网 时间:2024/06/14 23:39

回归(Regression)


1 基本介绍

  • 回归的应用:1、股票价格预测;2、自动驾驶;3、推荐算法
  • Example:预测pokemon的Combat Power

   机器学习的基本步骤:从一系列的函数集合中找到一个最符合当前训练集合的函数。简单的Linear Model形式:y=b+wixi

  • Trainin Data: D={(x1,y1),(x2,y2),(xn,yn)}
  • Loss function: L(f)=L(w,b)=ni=1(yi(wxi+b))2
  • f=argminfL(f)
  • w,b=argminw,bL(w,b)

2 梯度下降(Gradient Descent)

  • 1、随机选取w0b0;2、计算微分Lw|w=w0,b=b0Lb|w=w0,b=b0;3、更新w1w0ηLw|w=w0b=b0b1b0ηLb|w=w0b=b0η为学习率。4、更新偏微分,更新参数,不断迭代;
  • Gradient:L=LwLb
  • 梯度下降目标函数若存在多峰,很可能最终得到的是一个局部最优值,最终结果依赖随机初始的值。但是在线性回归中没有局部最优,因此可以避免这个问题。

3 Linear Regression推导

Lw=i=1n2(yi(b+wxi))(xi)Lb=i=1n2(yi(b+wxi))(1)

  • Average error on training data:1nni=1ei
  • 评估模型好坏:testing data、Generalization

4 过拟合

  • 二次模型:y=b+w1x+w2x2
  • ……
  • 对于n条数据可以训练出一个n-1次模型以0误差拟合,但是过拟合(overfitting)!越复杂的模型在testing data上表现越差。

5 Regularization

  • 过拟合的解决方式之一:正则化。
  • L=ni=1(yi(wxi+b))2+λ||wi||2
      期望得到的模型中,wi不为零的数越少越好,越少意味着模型越简单,模型越平滑。
0 0
原创粉丝点击