Hebb和Delta学习规则

来源:互联网 发布:linux视频教程 百度云 编辑:程序博客网 时间:2024/05/16 06:57

无监督学习规则

 唐纳德·赫布(1904-1985)是加拿大著名生理心理学家。Hebb学习规则与“条件反射”机理一致,并且已经得到了神经细胞学说的证实。
 巴甫洛夫的条件反射实验:每次给狗喂食前都先响铃,时间一长,狗就会将铃声和食物联系起来。以后如果响铃但是不给食物,狗也会流口水。
 受该实验的启发,Hebb的理论认为在同一时间被激发的神经元间的联系会被强化。比如,铃声响时一个神经元被激发,在同一时间食物的出现会激发附近的另一个神经元,那么这两个神经元间的联系就会强化,从而记住这两个事物之间存在着联系。相反,如果两个神经元总是不能同步激发,那么它们间的联系将会越来越弱。
 Hebb学习律可表示为:

Wij(t+1)=Wij(t)+ayiyj

 其中Wij表示神经元j到神经元i的连接权,yiyj表示两个神经元的输出,a是表示学习速率的常数,如果yiyj同时被激活,即yiyj同时为正,那么wij将增大。如果yi被激活,而yj处于抑制状态,即yi为正yj为负,那么wij将变小。

有监督学习规则

 Delta学习规则是一种简单的有导师学习算法,该算法根据神经元的实际输出与期望输出差别来调整连接权,其数学表示如下:

Wij(t+1)=Wij(t)+a(diyi)xj(t)

 其中Wij表示神经元j到神经元i的连接权,di是神经元i的期望输出,yi是神经元i的实际输出,xj表示神经元j状态,若神经元j处于激活态则xj为1,若处于抑制状态则xj为0或-1(根据激活函数而定)。a是表示学习速度的常数。假设xi为1,若diyi大,那么Wij将增大,若diyi小,那么Wij将变小。
 Detla规则简单来讲就是:若神经元实际输出比期望输出大,则减少输入为正的连接的权重,增大所有输入为负的连接的权重。反之,则增大所有输入为正的连接权的权重,减少所有输入为负的连接权的权重。

0 0
原创粉丝点击