神经网络笔记

来源:互联网 发布:大数据培训考试答案 编辑:程序博客网 时间:2024/06/17 12:02

神经网络的数学描述:

这里写图片描述

wljk表示l1层的第k个神经元到l层的第j个神经元输入的权重.
blj表示 l层的第j个神经元的偏移
alj表示l层的第j个神经元的输出
所以:

alj=σ(kwljkal1k+blj)

也可以用更简洁的描述:
al=σ(wlal1+bl)

令:
zl=zlj=wlal1+bl

zl可以视为第l层神经元的带权重和偏移的输入.

代价函数(Cost Function)

代价函数的定义如下:

C=12nx||y(x)aL(x)||2

这里: n是训练样本的个数, y(x)是期望的输出, L是神经网络的总层数, aL=aL(x)是神经网络当输入样本为x时的输出.

Hadamard 积

Hadmard积的定义如下:
这里写图片描述

反向传播的基本概念

定义错误δlj:

δlj=Czlj

则:
δLj=kCaLkaLkzLj

因为aLk是第L层的第k个神经元, 只有当j=k时, 跟zLj有关, 所以
aLkzLj=0,if   kj

于是:
δLj=CaLjaLjzLj

所以, 反向传播公式一(BP1)
δLj=CaLjσ(zLj)

继续来推导反向传播公式二 (BP2):

δlj=Czlj

于是:
δlj=kCzl+1kzl+1kzlj

继续推导:
δlj=kzl+1kzlkδl+1k

因为:
zl+1k=jwl+1jalj+bl+1j=jwl+1jσ(zlk)+bl+1j

所以:
zl+1kzlk=wl+1kσ(zlk)

因此:
δlj=kwl+1kjδl+1kσ(zlk)

这就是反向传播公式二BP2, 也可以简写为:
δl=(wl+1)Tδj+1σ(zl)

于是, 如果我们已知δl, 可以计算δl1.

神经网络的学习过程最终需要调整wb, 所以我们需要计算
CwljkCblj。 这就是反向传播公式三和四(BP3 and BP4)
待续

Reference

  • http://neuralnetworksanddeeplearning.com/ 强烈推荐
  • 机器学习 - 周志华 清华大学出版社
  • https://en.wikipedia.org/wiki/Hadamard_product_(matrices)
1 0
原创粉丝点击