RELU函数理解
来源:互联网 发布:linux libx264 编辑:程序博客网 时间:2024/05/29 15:12
在CNN卷积神经网络中,习惯用RELU函数代替sigmoid, tahh等目标激活函数,这应该是因为,RELU函数在大于0的时候,导数为恒定值,而sigmoid和tahh函数则不是恒定值,相反,sigmoid和tahh的导数,类似于高斯函数的曲线形状,在两端接近目标时,导数变小。
导数小的话,在训练神经网络的时候,会BP反向传播误差,导致收敛减慢;而relu函数则避免了这点,很好很强大。
当然,事情不是一定的,还是得结合实际情况选择,或者涉及目标激活函数。
下面提供一张RELU, sigmoid, tahh的函数曲线图供参考:
0 0
- RELU函数理解
- ReLU函数简介
- sigmoid与ReLU函数
- Relu函数作用
- ReLu激活函数
- ReLu激活函数
- 激活函数-ReLU
- 激活函数-relu
- ceffe 中Relu的理解
- keras代码阅读-relu函数
- 【Tensorflow】tf.nn.relu函数
- 神经网络回顾-Relu激活函数
- RELU
- sigmod函数tanh函数ReLU函数
- 人工神经网络之激活函数 -RELU函数
- ReLu(Rectified Linear Units)激活函数
- ReLu(Rectified Linear Units)激活函数
- ReLu(Rectified Linear Units)激活函数总结
- SAT数学满分备考策略
- linux连接无线网
- Spring MVC数据校验与国际化
- 简单的背景视差滚动 与 动画结合
- jffs2_scan_eraseblock(): Magic bitmask解决
- RELU函数理解
- LeetCode-Best Time to Buy and Sell Stock II-解题报告
- js的Math函数
- linux常用命令--个人笔记
- return 用法总结
- Sublime Text 3 常用插件以及安装方法
- Gruntfile.js详解
- 多字节与UTF-8、Unicode之间的转换
- 位运算