BackPropagation(BP, 误差反向传播)的一些理解
来源:互联网 发布:自然语言处理常见算法 编辑:程序博客网 时间:2024/05/16 11:51
在现代神经网络中, 使用最多的算法当是反向传播(BP). 虽然BP有着收敛慢, 容易陷入局部最小等缺陷, 但其易用性, 准确度却是其他算法无可比拟的.
在本文中,
在MLP中, 对于输出层神经元
可以看到它的输入等于前一层所有神经元的输出
而
对于有监督训练, 期望输出
其中的
为求出
我们先求
由链式法则:
我们可以求出误差
至此, 我们得到了误差
同样由链式法则:
其中
为了处理中间层, 我们同样是按照链式法则, 对于第i个神经元, 我们可以求得误差
考虑到第i个神经元的所有连接, 可以得到:
这里的
我们梳理一下:
对于连接神经元
为求得上面的式(3), 我们需要求得
对于输出层(最后一层),
对于中间层,
如此迭代, 我们就可以更新所有的权值啦.
权值调整的公式如下:
总结:
BP的精髓: 如何通过链式法则求出
求法:
注意, 以下推导, 统一使用
对于最后一层:
其中,
式(2)中,
从而计算出误差对[最后一层到倒数第二层的权值]的梯度.
对于倒数第二层:
唯一变化的只有
由于
而
其中
故
从而有
最终:
倒数第三层
可将倒数第二层求出的的
相关文章:点击打开链接
- BackPropagation(BP, 误差反向传播)的一些理解
- 【深入理解反向传播BP】Calculus on Computational Graphs: Backpropagation
- BP误差反向传播算法
- 神经网络BP反向传播算法Error Backpropagation
- 反向传播算法(BackPropagation,BP)
- 反向传播算法(backPropagation,简称BP算法)
- 深入浅出BP(BackPropagation)反向传播算法
- 如何理解反向传播算法(backpropagation)
- 理解反向传播(BackPropagation)算法(之一)
- BP反向传播算法是如何工作的How the backpropagation algorithm works
- 神经网络的反向传播算法Backpropagation
- BP神经网络——误差反向传播公式的简单推导
- 一张图理解训练的BP反向传播
- 反向传播算法(BP)的一些注记
- BP神经网络误差反向传播公式简单推导
- backpropagation反向传播算法
- 机器学习:对于反向传播算法(backpropagation)的理解以及python代码实现
- 5.3 误差反向传播
- design项目介绍
- 漏洞分析之CVE-2010-2883(栈溢出)
- android开发问题 Failed to pull selection
- IntelliJ IDEA 2017激活
- 聊聊副本放置方式对副本持久可用性的影响
- BackPropagation(BP, 误差反向传播)的一些理解
- php二维码生成
- Hazelcast为什么Executor的执行,只能在运行节点,而不能在其它节点显示运行?
- 迷宫的最短路径-BFS算法
- Java中foreach循环的实现原理
- js中的全等===概念
- 【jenkins】一、 jenkins安装、用户、权限管理
- OS X10.11升级安装Cocoapods出现-bash: pod: command not found
- Hook框架xposed的简单demo