深度学习:CNN RNN DNN 区别 卷积层或是LSTM单元

来源:互联网 发布:淘宝在哪里交保证金 编辑:程序博客网 时间:2024/06/08 02:52

梯度消失

http://www.cnblogs.com/tsiangleo/p/6151560.html

根本的问题其实并非是消失的梯度问题或者激增的梯度问题,而是在前面的层上的梯度是来自后面的层上项的乘积。所以神经网络非常不稳定。唯一可能的情况是以上的连续乘积刚好平衡大约等于1,但是这种几率非常小。

所以只要是sigmoid函数的神经网络都会造成梯度更新的时候极其不稳定,产生梯度消失或者激增问题。

全连接的DNN

http://blog.csdn.net/eddy_zheng/article/details/50763648

http://blog.csdn.net/Dark_Scope/article/details/47056361

网络层数太多是导致梯度消失或者梯度爆炸的直接原因, 使用S型激活函数(如:sigmoid函数,tanh函数)会导致梯度消失问题,初始权重设置太大会导致梯度爆炸



阅读全文
0 0
原创粉丝点击