LSTM与GRU的一些比较 - 论文笔记
来源:互联网 发布:软件测试的案例 编辑:程序博客网 时间:2024/06/05 18:02
参考:关于序列建模门控回归神经网络的实证评价
链接:http://blog.csdn.net/meanme/article/details/48845793
1.概要:
传统的RNN在训练长期依赖的时候会遇到很多困难,最常见的便是梯度化为乌有 梯度;另一种则是设计更加精密的重复单元,如LSTM,GRU而本文的重点是比较LSTM,GRU的性能由于在机 数据集语音状语从句信号建模上进行实验的。
2.LSTM与GRU:
1)LSTM:
2)GRU:
3)概括的来说,LSTM和GRU都能通过各种门将重要特征保留,保证其在长期传播的时候也不会被丢失;还有一个不太好理解,作用就是有利于BP的时候不容易vanishing:
3.实验结果:
实验用了三个单元,传统的正切,以及LSTM和GRU:
可以发现LSTM和GRU的差别并不大,但是都比tanh要明显好很多,所以在选择LSTM或者GRU的时候还要看具体的task数据是什么
不过在收敛时间和需要的划时代上,GRU应该要更胜一筹:
0 0
- LSTM与GRU的一些比较--论文笔记
- LSTM与GRU的一些比较 - 论文笔记
- LSTM与GRU的一些比较--论文笔记
- tensorflow学习笔记:LSTM 与 GRU
- 关于lstm和gru的一些简单资料,讲得比较容易理解
- 关于lstm和gru的一些简单资料,讲得比较容易理解
- 关于lstm和gru的一些简单资料,讲得比较容易理解
- LSTM 与 GRU
- LSTM与GRU结构
- GRU与LSTM总结
- RNN,LSTM与GRU
- tensorflow学习笔记(六):LSTM 与 GRU
- RNN LSTM与GRU深度学习模型学习笔记
- tensorflow学习笔记(六):LSTM 与 GRU
- RNN、LSTM、GRU学习笔记
- LSTM 和GRU的区别
- 记忆网络RNN、LSTM与GRU
- 论文笔记:LSTM, GRU, Highway and a Bit of Attention: An Empirical Overview for Language Modeling in Speec
- 机器学习实战(一)
- 偏好设置
- POJ 3628 01背包 OR 状压
- 可变参数:定义方法的时候不知道该定义多少个参数
- 行内元素和块级元素
- LSTM与GRU的一些比较 - 论文笔记
- 捕获2-频率损耗因子
- (七)、选择结构
- android sdk里的各目录作用
- 小四轴DIY日记之DMA和ADC初始化
- * public static <T> List<T> asList(T... a):把数组转成集合
- POJ1035-Spell checker
- ACM ICPCNEERC. Eastern Subregional Contest Donald is a postman
- (十一)、ZNode Watches(事件)