常见激活函数(sigmoid/logistic/tanh/softmax/ReLU关系解释)
来源:互联网 发布:项目管理分析软件 编辑:程序博客网 时间:2024/05/15 23:49
Sigmoid
神经网络最常见的激活函数就是sigmoid函数。
sigmoid函数意为“S型曲线函数”,它常常指的是logistic(对数几率)函数:
但sigmoid函数还有其他的函数,例如tanh函数等。
(更多见https://en.wikipedia.org/wiki/Sigmoid_function)
Softmax
logistic函数是对于二分类的函数,若扩展到K维,则为softmax函数:
其中
ReLU&softplus
2001年,神经科学家Dayan、Abott从生物学角度模拟出了脑神经元接受信号更精确的激活模型,ReLU(Rectified Linear Units)函数被提出:
而ReLU函数是个分段函数,求它的平滑近似函数就是softplus函数:
可以发现,softplus求导为
所以可以得到以上提及的函数的关系图:
ReLU—平滑函数→ softplus—求微分→ logistic—泛化→ softmax
参考:http://www.cnblogs.com/neopenx/p/4453161.html
sigmoid:https://en.wikipedia.org/wiki/Sigmoid_function
softmax:https://en.wikipedia.org/wiki/Softmax_function
ReLU:https://en.wikipedia.org/wiki/Rectifier_(neural_networks)
阅读全文
0 0
- 常见激活函数(sigmoid/logistic/tanh/softmax/ReLU关系解释)
- 激活函数-Sigmoid,Tanh,ReLu,softplus,softmax
- 神经网络中的激活函数(activation function)-Sigmoid, ReLu, TanHyperbolic(tanh), softmax, softplus
- sigmoid、tanh、softplus和ReLu激活函数
- 神经网络之激活函数(sigmoid、tanh、ReLU)
- 神经网络之激活函数(sigmoid、tanh、ReLU)
- 常用的激活函数总结(Sigmoid函数、Tanh函数、ReLu函数、Softmax函数)
- 神经网络中的激活函数-Sigmoid, ReLu, TanHyperbolic(tanh), softmax, softplus简述
- 四种激活函数(Relu Linear Sigmoid Tanh)
- 深度学习——激活函数Sigmoid/Tanh/ReLU
- 机器学习笔记-神经网络中激活函数(activation function)对比--Sigmoid、ReLu,tanh
- 深度学习常用激活函数之— Sigmoid & ReLU & Softmax
- 深度学习常用激活函数之— Sigmoid & ReLU & Softmax
- 深度学习常用激活函数之— Sigmoid & ReLU & Softmax
- 深度学习常用激活函数之— Sigmoid & ReLU & Softmax
- 神经网络激活函数sigmoid relu tanh 为什么sigmoid 容易梯度消失
- 一次面试引发的问题:激活函数Relu,sigmoid ,tanh的角逐
- 神经网络中的激活函数具体是什么?为什么ReLu要好过于tanh和sigmoid function?
- Spring依赖注入的详细理解
- HDU 5050 二进制大数GCD
- 5358. 【NOIP2017提高A组模拟9.12】BBQ
- Tuxera ntfs for mac注册码_激活码_产品秘钥_破解版
- C#中数组、ArrayList和List三者的区别
- 常见激活函数(sigmoid/logistic/tanh/softmax/ReLU关系解释)
- WebAssembly,Web的新时代
- Guava
- 学习angularjs 有浅到深 (1)
- cmake编译安装OpenCV
- linux下安装mysql的方法
- Glide显示圆形和圆角图片
- Spark---Shuffle调优之调节map端内存缓冲与reduce端内存占比
- 数组的维数