caffe学习笔记30-关于梯度消失与溢出
来源:互联网 发布:淘宝网薄印花半大开衫 编辑:程序博客网 时间:2024/06/05 08:17
解决梯度消失问题的策略:
1.LSTM:通过选择记忆和遗忘机制克服RNN的梯度消失问题
2.用无监督数据做分层预训练,再用有监督数据fine-tune
3.ReLU:新的激活函数解析性质更好,克服可sigmoid函数和tanh函数的梯度消失问题
4.辅助损失函数:googlenet中的两个辅助损失函数,对浅层神经元直接传递梯度
5.Batch Normalization:逐层的尺度归一
梯度溢出问题:
1.尺度不平衡的初始化容易导致网络NAN
2.Xavier的方差不变准则保持网络节点尺度不变
1.LSTM:通过选择记忆和遗忘机制克服RNN的梯度消失问题
2.用无监督数据做分层预训练,再用有监督数据fine-tune
3.ReLU:新的激活函数解析性质更好,克服可sigmoid函数和tanh函数的梯度消失问题
4.辅助损失函数:googlenet中的两个辅助损失函数,对浅层神经元直接传递梯度
5.Batch Normalization:逐层的尺度归一
梯度溢出问题:
1.尺度不平衡的初始化容易导致网络NAN
2.Xavier的方差不变准则保持网络节点尺度不变
1 0
- caffe学习笔记30-关于梯度消失与溢出
- 深度学习笔记---梯度消失、梯度激增
- 《白话深度学习与Tensorflow》学习笔记(2)梯度下降、梯度消失、参数、归一化
- 深度学习笔记---ReL解决梯度消失
- 梯度爆炸与梯度消失
- 梯度消失与梯度爆炸
- BPTT与梯度消失
- 关于梯度消失,梯度爆炸的问题
- 【深度学习】RNN的梯度消失/爆炸与正交初始化
- 深度学习中的激活函数与梯度消失
- 深度学习:梯度消失和梯度爆炸
- 深度学习:梯度消失和梯度爆炸
- caffe与python学习笔记
- [DeeplearningAI笔记]改善深层神经网络_深度学习的实用层面1.10_1.12/梯度消失/梯度爆炸/权重初始化
- 机器学习总结(九):梯度消失(vanishing gradient)与梯度爆炸(exploding gradient)问题
- Deep Residual Network 与 梯度消失
- Deep Residual Network 与 梯度消失
- 机器学习总结(二):梯度消失和梯度爆炸
- 20170304-java
- LeapMotion驱动安装教程
- MySQL主从复制实战
- 二叉树层级遍历并按行打印
- 个人所得税计算器(实验)
- caffe学习笔记30-关于梯度消失与溢出
- C# TCP多线程服务器示例
- 最初学习linux
- javascript1-基本概念
- html入门和介绍
- java通信之Scoket-TCP
- Leetcode Freedom Trail
- MySQL主从复制实战
- 03.Spring IoC 容器