Stanford ML - Lecture 5 - Neural Networks: Learning

来源:互联网 发布:芭芭拉史翠珊 知乎 编辑:程序博客网 时间:2024/04/28 00:55

1. Cost function

  • Neural Network (Classification)




    • Binary classification

      • 1 output unit
    • Multi-class classification (K classes)

      • K output units
  • Cost function
    • Logistic regression:

    • Neural network:


2. Backpropagation algorithm

  • Gradient descent
    • need code to compute


Is it ??

  • Gradient computation


然后根据backpropagation算法进行梯度的计算,这里引入了error变量δ,用来表示真实值与forward propagation计算值之间的差,也是梯度的主要依据来源。

我们定义神经网络的总误差为:

希望通过调整权重参数W(也就是theta)来最小化E。
假设一个共有3层的神经网络,在最后一层,由于

   
而对于前面的一层(如第三层),其误差可以定义为:
分别代入即得


由此得来\theta_{k}的update方程:

如果将误差对激励函数(activation function)的导数记做δ,则有:



对于前面一层 ,更新同理,,只是上一层\Theta梯度的第一个分量E对a_k求导有所变化,

但是始终是不变的。


From: http://blog.csdn.net/abcjennifer/article/details/7758797
原创粉丝点击