RNN
来源:互联网 发布:网络热词2015 编辑:程序博客网 时间:2024/05/17 03:27
一个小的例子mini_char_rnn
我们主要看代码中的backward部分:
dh = np.dot(Why.T, dy) + dhnextdhraw = (1 - hs[t] * hs[t]) * dhdhnext = np.dot(Whh.T, dhraw)
首先定义loss function:
E =
这里n是batchsize,y为输出,损失函数为softmax交叉熵,RNN的BP和传统的BP的不同在于
所以在backward中
后面一项正是代码中的dhnext,我们可以把
……
我们可以看到
正是因为RNN在时间轴上是关联的,所以前一时刻的输出和当前时刻的输入是相关联的,这也反映到了RNN的BP中,就是当前时刻的梯度是和前一时刻的梯度相关的
0 0
- RNN
- rnn
- RNN
- RNN
- RNN
- RNN
- RNN
- RNN
- rnn 相关
- CNN+RNN
- RNN模型
- [rnn] tools
- RNN computation
- RNN神经网络
- About RNN
- RNN-LSTM
- RNN学习
- LSTM+RNN
- 禁用/恢复手机默认的触屏滚动行为
- 众数问题
- Android Studio获取SHA1或MD5的方法
- Qt在Windows下的三种编程环境搭建
- linux中chkconfig的使用
- RNN
- java项目转web项目
- C++ rapidjson Unicode编码总结
- 从零开始构建IOS的OpenGL应用
- iOS 8 系统自带BlurEffect 毛玻璃特效
- 80老翁谈人生(308):网络人生的一次大劫难
- 关于freeline的使用及遇到的问题!
- 学习笔记:多重纹理
- 设计模式之中介者模式(十一)