LSTM基本原理
来源:互联网 发布:网络诈骗2000判刑多久 编辑:程序博客网 时间:2024/05/21 06:43
感觉RNN比CNN会难理解一点,刚开始对RNN并不是很理解,直到看了大神的这篇文章Understanding LSTM Networks才感觉理解了一些,写个总结。
三个门
原始输入循环体的是当前输入
经过遗忘门的函数之后产生一个0到1之间的输出
另外一条路线上,
另外同时经过
这个时候,由
有了当前的状态,自然就可以去输出门(output gate)了:
总结:从上面的公式,我们容易发现,每个门的形态是一样的,都是通过
循环体内部结构
先抛开这几个门,最简单的循环体内部就是一个全连接的神经网络,真实输出可能会再追加一个全连接的神经网络。
我们在用TensorFlow创建RNN模型的时候要设置hidden_size是真实输出的网络的输出神经元个数。
输入的数据是上一时刻的输出
比如当前输入神经元是x个上一状态的输入神经元是h个,那么合在一起的输入神经元就是(x+h)个,因为内部输出要作用于下一个循环体因此内部输出神经元也是h个,于是循环体内部就是(h+x)*h个权重和h个偏置,内部的输出再外接一个hidden_size个输出神经元的全连接层便产生了真实输出。
- LSTM基本原理
- LSTM
- lstm
- lstm
- lstm
- LSTM
- LSTM
- LSTM
- LSTM
- lstm
- lstm
- LSTM
- LSTM
- LSTM
- LSTM
- LSTM
- LSTM
- LSTM
- Java操作Excel之Poi
- Nginx + nginx-upload-module 文件服务器搭建
- 【Oracle学习】之 序列(Sequence)
- c语言怎么做到四舍五入?
- 上线经历
- LSTM基本原理
- 常用的OSGI包
- Java的PO.VO.DAO等类名包名解释
- worldfinal2017-I题-warshall算法
- 101-指向子网的广播
- Java计算校园课程表的周数
- Codeforces 809C [数位DP]
- Spring 自动依赖注入优化(primary)
- python下划线变量的含义