神经网络笔记

来源:互联网 发布:下载软件管理器 编辑:程序博客网 时间:2024/06/06 03:28

为什么选择交叉熵(Why Cross-Entropy)

为了解决学习速度下降的问题,我们希望

Cwj=xj(ay)

Cb=(ay)

如上文所述, 当代码函数为C时:

Cb=Caδ(z)

因为δ函数的性质:
δ(z)=(1δ(z))δ(z)=a(1a)

于是:
Cb=Caa(1a)

如果要符合期望, 则下式必须成立:
Ca=aya(1a)

则反推可以得到
C=[ylna+(1y)ln(1a)]+constant

这是一个样本的代价函数, 多个样本的话, 自然
C=1nx[ylna+(1y)ln(1a)]+constant

Reference

http://neuralnetworksanddeeplearning.com/

原创粉丝点击