人工神经网络:反向传播算法的数学基础(Part4)

来源:互联网 发布:ping的端口号 编辑:程序博客网 时间:2024/06/05 10:00

文本翻译自briandolhansky的神经网络系列文章,本文是第四部分.
注: 此文章为译者初次尝试翻译, 加上非数学专业出身, 工作忙碌闲暇时间较少,因此在专业术语和词语表达上多有不当之处. 如有疑问欢迎评论交流.


  目前为止,我们还没有看到神经网络强大的非线性能力 — 我们目前所使用的单层模型, 像多项逻辑斯地回归, 二项逻辑斯蒂回归均是线性模型. 这些单层模型的求导都很简单, 权重的输入可以 直接从结果反推. 不过单层模型连在一起形成神经网络时, 又会如何.

神经网络模型

  权重的增加和结果的变化之间不再是线性关系, 任意一个节点的改变都会导致后面层上的节点的变化, 那么在神经网我们该如何计算所有权重的梯度值 ? – 反向传播算法应运而生.
  反向传播算法的核心在于在所有可能的传播路径上迭代的使用链式求导法则. 随着神经网络尺寸的增到从输入到输入之间的路径指数级的增加, 神经网络算法的优势逐渐凸显, 它以动态规划算法的形式重复使用中间结果来计算梯度, 极大地加快了计算速度, 在此过程中我们将误差(cost)从输出传回输入, 这也是反向传播算法命名的由来. 反向传播与正向传播密切相关, 正向传播将输入向前传递至结果, 反向传播将误差向后传播回结果

  许多介绍神经网络的文章直接给出通用用公式, 往往使得深入学习神经网络变得困难. 本文将通过手算梯度值来逐步深入推到公式,如此虽然增加了文章的长度, 但更容易让初学者上手, 这是我认为最好的学习反向传播算法的方式.

反向传播的基本规则

  首先明确一点:训练神经网络的最终目标是找到权重值组合使得损失函数的值最小.

Ewij

  结合随机梯度下降算法可以更新权重值:

wij=wijηEwij

  对于单个神经元节点, 连接方式总共有一下四种情形: 1.只有一个输入和一个 输出. 2.有多个输入和一个输出, 3.有一个输入和多个输出. 4. 有多个输入和多个输出. 在以下的推导中我们可以得出多个输入和多个输出是相互独立的事件, 情况4可以由2和3合并得出.
对于每种情景下的梯度, 我将使用简单的多层神经网络进行求解, 归纳相应的反向传播算法通用法则. 最后, 我们将得到一个适用于任意神经网络通用的算法.

(1).单个输入和单个输出

假设神经网络的构成如下:

简单神经网络模型
简单的单一传播路径神经网络

  图中每个变量值得求解如下:

sj=w1xizj=σ(sj)=σ(w1xj)sk=w2zjzk=σ(s2)=σ(w2σ(w1xi))so=w3zkyi^=io=w3σ(w2σ(w1xi))E=12(yi^yi)2=12(w3σ(w2σ(w1xi))yi)2

  本例很容易求得每个变量wi的倒数, 以下为手动求解步骤, 在此过程中, 不同变量的导数会用不同的颜色标记, 希望读者可以找出相应的规律. 首先, 让我们求出wk0(提示: 结果yi^=wkozk为线性转换) :
Ewko=wko12(yi^yi)2=wko12(wkozkyi)2=wkozkwko(wkozkyi)=yi^yi(zk)

  找出wjk同样简单:
Ewjk=Ewjk(yi^yi)2=(yi^yi)(wjk(wkoσ(wjkzj)yi))=(yi^yi)wkoσ(sk)σ(1sk)wjk(wjk.zj)=(yi^yi)wko(σ(sk)σ(1sk)(zj)

  直接使用微分公式计算wij:
Ewij=wij12(yi^yi)2=(yi^yi)(wij(yi^yi))=(yi^yi)(wko)(wij(σ(wjkσ(wijxi)))=(yi^yi)(wko)(σ(sk)(1σ(sk))(wjk)(wijσ(wijxi))=(yi^yi)(wko)(σ(sk)(1σ(sk))(wjk)(σ(sj)(1σ(sj)))xi

  你可以能已经注意了固定的模式出现在求导过程中, 这一模式是构建反向传播算法的基础 —— 即在求解前一个层的神经元导数时, 我们会使用后面层级神经元的求导时计算得出的值. 这些值包括神经网络的错误的导数, 神经元k输出sk的加权导数, 神经元j输出sj的加权导数.
  以上可以得出, 对于这个简单神经网络:
Δwij=η[(yi^yi)(wko(σ(sk))((1σ(sk)))wjk(σ(sj))(1σ(sj))(xi)]Δwjk=η[(yi^yi)(wko(σ(sk))((1σ(sk))(zj)]Δwko=η[((̂ yi)yi)(zk)]


(2).神经元存在多个输入

  当一个神经元有多个输入时:

 多个输出的神经元

  当一个神经元有多个输入时, 每个输入导数的求解相比与一个输入时有什么不同?wik的求解方法是否受wjk的更新影响? wik的导数计算如下:

Ewik=wik12(yi^yi)2=(yi^yi)(wikzkwko)=(yi^yi)(wko)(wikσ(sk))=(yi^yi)((σ(sk)(1σ(sk))wko)(wij(ziwik+zjwjk))=(yi^yi)((σ(sk)(1σ(sk))wko)zi

  可以看出wik导数计算不受wjk的影响, 得到求导的第一条法则:在同一个层级上, 每个神经元权重的求导各自独立, 互不影响. 本条规则比较直观, 易于理解. 权重的更新不依赖于本层其他神经元的权重值, 只依赖于后面层级神经元的权重值. 这条法则便于后向传播算法的求解.

(3).神经元存在多个输出

  现在我们讨论一下当一个神经元有多个输出的情况.

 多个输出的神经元

  与前一节的神经网络相比,该神经网络的新增了wini这一部分, 这样神经元i便存在两个中间的继承者, 因此, 我们需要对起源于i的所有路径上的误差累积进行求和. 求导过程如下( σi(⋅) 表示神经元i的激活函数):

Ewini=wini12(yi^yi)2=(yi^yi)(wini(zjwjo+zkwko))=(yi^yi)(wini(σj(sj)wjo+σk(sk)wko))=(yi^yi)(wjoσj(sj)winisj+wkoσk(sk)winisk)=(yi^yi)(wjoσj(sj)winiziwij+wkoσk(sk)wini(ziwik))=(yi^yi)(wjoσj(sj)winiσi(si)wij+wkoσk(sk)wini(σj(sj)wik))=(yi^yi)(wjoσj(sj)wijσi(si)winisi+wkoσk(sk)wikσi(si)winisj)=(yi^yi)(wjoσj(sj)wijσi(si)+wkoσk(sk)wikσi(si))xi

  有两点需要注意, 首先得到我们的第二条求导原则:当有多个输出层时权重的求导依赖于每个输出路径上的误差的导数.
  更重要的是我们可以推演出后向传播和前向传播之间的关系. 在后向传播时, 我们计算结果误差, 然后传递结果误差到每一个神经元, 得到加权后的误差值(译者注: 因为sj=σ(wjsj1+b)是指sj1的误差需要乘上wj, 即加权–wighted). 每到达一个神经元我们都是用加权的后向传播误差乘上该神经元的导数, 直到到达初始输入层X. 后向传播算法和前向传播算法类似, 都属于递归算法. 下一节中我将引入误差信号(error signal)这一概念, 这一概念帮助我们以一种简洁的方式重定义权重求导公式.

误差信号

  一步一步推导出所有权重的导数相当繁琐, 尤其当神经网络中含有大量的神经元和隐含层时, 逐个更新更是不切实际. 在上一章节 在误差向后传播的过程中具有一定规律, 固定的模式不断重现, 这有助与归纳出通用后向传播算法. 本章节我们引入误差信号的概念, 即误差在每一个神经元上的累加值. 为了简化过程便于理解, 假设样本数为1, 因此ŷ =yi^, 本节均使用ŷ .
  神经元j的递归误差信号定义如下:

δj=Esj

  该公式计算神经元j对结果的误差变化的贡献, 即当j改变Δj时, 结果E的变化量的大小 – – 微积分中的导数. 后面可以看出在反向传播计算中 δj帮助我们极大的简化我们求解过程. 展开δj可以得到:
δj=Esj=sj12(ŷ y)2=(ŷ y)ŷ sj

  假设j为输出层, ŷ =fj(sj)((fj()sj的激活函数), ŷ sj 等于fj(sj), 从而δj=(ŷ y)fj(sj).
若神经元j为隐含层, 其输出神经元为k时(kouts(j)), 依据微分链式法则进一步展开ŷ sj:
ŷ sj=ŷ zjzjsj=ŷ zjfj(sj)

  注意ŷ zj的求解, 所有的k, kouts(j)的值都依赖于j. 根据在<3.一个神经元有多个输出>一节的结论可知, δzj求解依赖于每个输出路径上的误差. 具体分析, 对于每个输出k都有sk=zjwjk, 并且同一层级上Sk的计算相互独立, 依据链式法则, 累加所有的神经元kouts(j)可以得出:
ŷ sj=fj(sj)kouts(j)ŷ skskzj=fj(sj)kouts(j)ŷ skwjk

将此式代入δj=(ŷ y)ŷ sj可得:
δj=(ŷ y)fj(sj)kouts(j)ŷ skwjk

  基于错误信号的定义可知, sk=(ŷ y)ysk, 将上式的(ŷ y)移至内, 我们可以得出一下的递归公式:
δj=fj(sj)δkwjk

  由此便得到计算后向传播误差的简洁形式, 最后要做的便是将上面的公式整合成一个通用表达式.

后向传播算法的一般形式

  回顾第一节我们用到的神经网络:

简单神经网络模型

  该神经网络上所有错误误差的求解如下:

δoδkδj=(ŷ y)(线1)=δowkoσ(sk)(1σ(sk)=δkwjkσ(sj)(1σ(sj)

  同样权重更新的公式(节1.单个输入和单个输出):
Δwij=η[(yi^yi)(wko(σ(sk))((1σ(sk)))wjk(σ(sj))(1σ(sj))(xi)]Δwjk=η[(yi^yi)(wko(σ(sk))((1σ(sk))(zj)]Δwko=η[((̂ yi)yi)(zk)]

  带入错误信号得:
ΔwkoΔwjkΔwij=ηδ0zk=ηδkzj=ηδjzi

  当神经网络中神经元有多个输出的时:

 多个输出的神经元

  错误误差的求解如下:

δoδkδjδi=(ŷ y)=δowkoσ(sk)(1σ(sk))=δkwjkσ(sj)(1σ(sj))=σ(si)(1σ(si))kouts(i)δkwik

  虽然我们没有推导出所有的权重更新公式, 但是利用信号误差可得权重更新公式(如果感兴趣的话你可以手算一下):
ΔWkoΔwjoΔwikΔwijΔwini=ηδozk=ηδ0zj=ηδkzi=ηδjzi=ηδixi

现在可以很清楚的得到权重更新的一般公式:Δwij=ηδjzi.
  最后要考虑的是使用批量数据算法(minibatch)更新梯度时, 公式变化情况. 通常每个样本都是独立的, 将所有样本的更新值累加起来便得到了一个权重的总更新值.(一般会除以样本数量N, 这样权重更新值不敏感于样本量的大小). 我们使用yi代表第i个样本, 将其作为上标带入上式中可得:
Δwij=ηNyiδ(yi)jz(ji)j

  由上可知,后向传播算法的一般公式计算由三部分组成:
1. 前向传播训练集, 计算每个s(yi)jz(yi)j.
2. 计算每个样本yi神经元的误差信号δ(yi)j.如果j是输出层, δj=fj(s(yi)j)(yi^y). 否则j为隐含层, δj=fj(s(yi)j)kouts(j)δ(yi)kwjk.
3. 根据公式Δwij=ηNyiδ(yi)jz(ji)j更新权重.

总结

  希望通过本部分内容你可以全面的掌握后向传播算法的求解(译者注: 英文可以的朋友最好看原文 :-) 点击这里). 但是部分的公式的可编程性和扩展性仍然很差, 下一部分会拓展此公式成矩阵形式. 提供一个简单的神经网络模型, 并且用它来训练MNIST数据集.

原创粉丝点击