QRNN(Quasi-Recurrent Neural Networks)
来源:互联网 发布:淘宝产品规划方案 编辑:程序博客网 时间:2024/05/19 23:13
keras代码:https://github.com/DingKe/qrnn
QRNN为LSTM加速算法,模型结构如下:
qrnn第一层为卷积层,用于提取输入特征,第二层为pooling层,用于减少特征数目,但语常用的pooling层不同的是,qrnn采用fo-pool方法,具体计算如下.
卷积层:
对于输入X,分别通过三个卷积层和非线性层得到Z,F,O,公式如下:
这里
即滤波器的宽度越大.越能计算更高的n-gram特征,因此为了考虑更多时刻的特征,可以适当增加滤波宽度.
pooling层:
f-pooling:
fo-pooling:
ifo-pooling:
在每种情况下,初始化h,c为0.
GTMM
参考博客:http://www.dlworld.cn/XueXiSuanFa/3384.html
阅读全文
0 0
- QRNN(Quasi-Recurrent Neural Networks)
- 【Learning Notes】Quasi-recurrent Neural Networks
- Gated Recurrent Neural Networks
- Recurrent Neural Networks Tutorial
- Recurrent Neural Networks - collections
- Recurrent Neural Networks regularization
- Recurrent Neural Networks
- Recurrent Neural Networks
- Batch Normalized Recurrent Neural Networks
- Recurrent Neural Networks 循环神经网络
- TensorFlow3: RNN, Recurrent Neural Networks
- Recurrent Neural Networks Tutorial 中文翻译
- RNN(recurrent neural networks)简介
- tensorflow 的 Recurrent Neural Networks
- Recurrent Neural Networks VS LSTM
- Recurrent neural networks deep dive
- CHAPTER 14 -Recurrent Neural Networks
- feedforward neural networks 和 recurrent neural networks的概念
- 安装jupyter及修改默认文件夹
- 万兆网络UDP速率传输性能测试(接受端)
- 递归实现二叉树遍历以及求最大深度
- 面试大全3
- DQL、DML、DDL、DCL的概念与区别
- QRNN(Quasi-Recurrent Neural Networks)
- shiro简单学习
- 事务为什么加在service层而不加在dao层
- SVN服务---分支到主干
- HDU 6138 AC自动机
- 关于HTTP协议,一篇就够了
- Javascript学习
- jsp 九大内置对象和其作用详解
- vbr,cbr,abr区别