长短时记忆网络(LSTM)的训练

来源:互联网 发布:如何清除mac桌面图标 编辑:程序博客网 时间:2024/05/16 13:49

长短时记忆网络的训练

熟悉我们这个系列文章的同学都清楚,训练部分往往比前向计算部分复杂多了。LSTM的前向计算都这么复杂,那么,可想而知,它的训练算法一定是非常非常复杂的。现在只有做几次深呼吸,再一头扎进公式海洋吧。

LSTM训练算法框架

LSTM的训练算法仍然是反向传播算法,对于这个算法,我们已经非常熟悉了。主要有下面三个步骤:

  1. 前向计算每个神经元的输出值,对于LSTM来说,即ftitctotht五个向量的值。计算方法已经在上一节中描述过了。
  2. 反向计算每个神经元的误差项δ值。与循环神经网络一样,LSTM误差项的反向传播也是包括两个方向:一个是沿时间的反向传播,即从当前t时刻开始,计算每个时刻的误差项;一个是将误差项向上一层传播。
  3. 根据相应的误差项,计算每个权重的梯度。

关于公式和符号的说明

首先,我们对推导中用到的一些公式、符号做一下必要的说明。

接下来的推导中,我们设定gate的激活函数为sigmoid函数,输出的激活函数为tanh函数。他们的导数分别为:

σ(z)σ(z)tanh(z)tanh(z)=y=11+ez=y(1y)=y=ezezez+ez=1y2(8)(9)(10)(11)

从上面可以看出,sigmoid和tanh函数的导数都是原函数的函数。这样,我们一旦计算原函数的值,就可以用它来计算出导数的值。

LSTM需要学习的参数共有8组,分别是:遗忘门的权重矩阵Wf和偏置项bf、输入门的权重矩阵Wi和偏置项bi、输出门的权重矩阵Wo和偏置项bo,以及计算单元状态的权重矩阵Wc和偏置项bc。因为权重矩阵的两部分在反向传播中使用不同的公式,因此在后续的推导中,权重矩阵WfWiWcWo都将被写为分开的两个矩阵:WfhWfxWihWixWohWoxWchWcx

我们解释一下按元素乘符号。当作用于两个向量时,运算如下:

ab=a1a2a3...anb1b2b3...bn=a1b1a2b2a3b3...anbn

作用于一个向量和一个矩阵时,运算如下:

aX=a1a2a3...anx11x21x31xn1x12x22x32xn2x13x23x33...xn3............x1nx2nx3nxnn=a1x11a2x21a3x31anxn1a1x12a2x22a3x32anxn2a1x13a2x23a3x33...anxn3............a1x1na2x2na3x3nanxnn(12)(13)

作用于两个矩阵时,两个矩阵对应位置的元素相乘。按元素乘可以在某些情况下简化矩阵和向量运算。例如,当一个对角矩阵右乘一个矩阵时,相当于用对角矩阵的对角线组成的向量按元素乘那个矩阵:

diag[a]X=aX

当一个行向量右乘一个对角矩阵时,相当于这个行向量按元素乘那个矩阵对角线组成的向量:

aTdiag[b]=ab

上面这两点,在我们后续推导中会多次用到。

在t时刻,LSTM的输出值为ht。我们定义t时刻的误差项δt为:

δt=defEht

注意,和前面几篇文章不同,我们这里假设误差项是损失函数对输出值的导数,而不是对加权输入netlt的导数。因为LSTM有四个加权输入,分别对应ftitctot,我们希望往上一层传递一个误差项而不是四个。但我们仍然需要定义出这四个加权输入,以及他们对应的误差项。

netf,tneti,tnetc~,tneto,tδf,tδi,tδc~,tδo,t=Wf[ht1,xt]+bf=Wfhht1+Wfxxt+bf=Wi[ht1,xt]+bi=Wihht1+Wixxt+bi=Wc[ht1,xt]+bc=Wchht1+Wcxxt+bc=Wo[ht1,xt]+bo=Wohht1+Woxxt+bo=defEnetf,t=defEneti,t=defEnetc~,t=defEneto,t(14)(15)(16)(17)(18)(19)(20)(21)(22)(23)(24)(25)

误差项沿时间的反向传递

沿时间反向传递误差项,就是要计算出t-1时刻的误差项δt1

δTt1=Eht1=Ehththt1=δTththt1(26)(27)(28)

我们知道,htht1是一个Jacobian矩阵。如果隐藏层h的维度是N的话,那么它就是一个N×N矩阵。为了求出它,我们列出ht的计算公式,即前面的式6式4

htct=ottanh(ct)=ftct1+itc~t(29)(30)

显然,otftitc~t都是ht1的函数,那么,利用全导数公式可得:

δTththt1=δTthtototneto,tneto,tht1+δTthtctctftftnetf,tnetf,tht1+δTthtctctititneti,tneti,tht1+δTthtctctc~tc~tnetc~,tnetc~,tht1=δTo,tneto,tht1+δTf,tnetf,tht1+δTi,tneti,tht1+δTc~,tnetc~,tht1(7)(31)(32)

下面,我们要把式7中的每个偏导数都求出来。根据式6,我们可以求出:

htothtct=diag[tanh(ct)]=diag[ot(1tanh(ct)2)](33)(34)

根据式4,我们可以求出:

ctftctitctc~t=diag[ct1]=diag[c~t]=diag[it](35)(36)(37)

因为:

otneto,tftnetf,titneti,tc~tnetc~,t=σ(neto,t)=Wohht1+Woxxt+bo=σ(netf,t)=Wfhht1+Wfxxt+bf=σ(neti,t)=Wihht1+Wixxt+bi=tanh(netc~,t)=Wchht1+Wcxxt+bc(38)(39)(40)(41)(42)(43)(44)(45)(46)(47)(48)

我们很容易得出:

otneto,tneto,tht1ftnetf,tnetf,tht1itneti,tneti,tht1c~tnetc~,tnetc~,tht1=diag[ot(1ot)]=Woh=diag[ft(1ft)]=Wfh=diag[it(1it)]=Wih=diag[1c~2t]=Wch(49)(50)(51)(52)(53)(54)(55)(56)

将上述偏导数带入到式7,我们得到:

δt1=δTo,tneto,tht1+δTf,tnetf,tht1+δTi,tneti,tht1+δTc~,tnetc~,tht1=δTo,tWoh+δTf,tWfh+δTi,tWih+δTc~,tWch(8)(57)(58)

根据δo,tδf,tδi,tδc~,t的定义,可知:

δTo,tδTf,tδTi,tδTc~,t=δTttanh(ct)ot(1ot)(9)=δTtot(1tanh(ct)2)ct1ft(1ft)(10)=δTtot(1tanh(ct)2)c~tit(1it)(11)=δTtot(1tanh(ct)2)it(1c~2)(12)(59)(60)(61)(62)

式8式12就是将误差沿时间反向传播一个时刻的公式。有了它,我们可以写出将误差项向前传递到任意k时刻的公式:

δTk=j=kt1δTo,jWoh+δTf,jWfh+δTi,jWih+δTc~,jWch(13)

将误差项传递到上一层

我们假设当前为第l层,定义l-1层的误差项是误差函数对l-1层加权输入的导数,即:

δl1t=defEnetl1t

本次LSTM的输入xt由下面的公式计算:

xlt=fl1(netl1t)

上式中,fl1表示第l-1层的激活函数

因为netlf,tnetli,tnetlc~,tnetlo,t都是xt的函数,xt又是netl1t的函数,因此,要求出E对netl1t的导数,就需要使用全导数公式:

Enetl1t=Enetlf,tnetlf,txltxltnetl1t+Enetli,tnetli,txltxltnetl1t+Enetlc~,tnetlc~,txltxltnetl1t+Enetlo,tnetlo,txltxltnetl1t=δTf,tWfxf(netl1t)+δTi,tWixf(netl1t)+δTc~,tWcxf(netl1t)+δTo,tWoxf(netl1t)=(δTf,tWfx+δTi,tWix+δTc~,tWcx+δTo,tWox)f(netl1t)(14)(63)(64)(65)

式14就是将误差传递到上一层的公式。

权重梯度的计算

对于WfhWihWchWoh的权重梯度,我们知道它的梯度是各个时刻梯度之和(证明过程请参考文章零基础入门深度学习(5) - 循环神经网络),我们首先求出它们在t时刻的梯度,然后再求出他们最终的梯度。

我们已经求得了误差项δo,tδf,tδi,tδc~,t,很容易求出t时刻的Woh、的Wih、的Wfh、的Wch

EWoh,tEWfh,tEWih,tEWch,t=Eneto,tneto,tWoh,t=δo,thTt1=Enetf,tnetf,tWfh,t=δf,thTt1=Eneti,tneti,tWih,t=δi,thTt1=Enetc~,tnetc~,tWch,t=δc~,thTt1(66)(67)(68)(69)(70)(71)(72)(73)(74)(75)(76)

将各个时刻的梯度加在一起,就能得到最终的梯度:

EWohEWfhEWihEWch=j=1tδo,jhTj1=j=1tδf,jhTj1=j=1tδi,jhTj1=j=1tδc~,jhTj1(77)(78)(79)(80)

对于偏置项bfbibcbo的梯度,也是将各个时刻的梯度加在一起。下面是各个时刻的偏置项梯度:

Ebo,tEbf,tEbi,tEbc,t=Eneto,tneto,tbo,t=δo,t=Enetf,tnetf,tbf,t=δf,t=Eneti,tneti,tbi,t=δi,t=Enetc~,tnetc~,tbc,t=δc~,t(81)(82)(83)(84)(85)(86)(87)(88)(89)(90)(91)

下面是最终的偏置项梯度,即将各个时刻的偏置项梯度加在一起:

EboEbiEbfEbc=j=1tδo,j=j=1tδi,j=j=1tδf,j=j=1tδc~,j(92)(93)(94)(95)

对于WfxWixWcxWox的权重梯度,只需要根据相应的误差项直接计算即可:

EWoxEWfxEWixEWcx=Eneto,tneto,tWox=δo,txTt=Enetf,tnetf,tWfx=δf,txTt=Eneti,tneti,tWix=δi,txTt=Enetc~,tnetc~,tWcx=δc~,txTt(96)(97)(98)(99)(100)(101)(102)(103)(104)(105)(106)

以上就是LSTM的训练算法的全部公式。因为这里面存在很多重复的模式,仔细看看,会发觉并不是太复杂。

当然,LSTM存在着相当多的变体,读者可以在互联网上找到很多资料。因为大家已经熟悉了基本LSTM的算法,因此理解这些变体比较容易,因此本文就不再赘述了。