神经网络中的激活函数
来源:互联网 发布:剑三喵太捏脸数据 编辑:程序博客网 时间:2024/05/01 02:21
最近在看深度学习的东西,激活函数是其中的一个环节,就从网上的一搜寻关于激活函数的介绍
激活函数是用来加入非线性因素的,因为线性模型的表达能力不够。
常用激活函数
(1) 线性函数 ( Liner Function )
(2) 斜面函数 ( Ramp Function )
(3) 阈值函数 ( Threshold Function )
图2 . 阈值函数图像
(4) S形函数 ( Sigmoid Function )
该函数的导函数:
(5) 双极S形函数
该函数的导函数:
S形函数与双极S形函数的图像如下:
图3. S形函数与双极S形函数图像
双极S形函数与S形函数主要区别在于函数的值域,双极S形函数值域是(-1,1),而S形函数值域是(0,1)。
由于S形函数与双极S形函数都是可导的(导函数是连续函数),因此适合用在BP神经网络中。(BP算法要求激活函数可导)
(5) 双曲正切函数
该函数的导函数:
(6)ReLu(Rectified Linear Units)函数
- Noise ReLU max(0, x+N(0, σ(x)).
该函数的导函数:
g(x)'=0或1
(7)maxout 函数
这里的W是3维的,尺寸为d*m*k,其中d表示输入层节点的个数,m表示隐含层节点的个数,k表示每个隐含层节点对应了k个”隐隐含层”节点,这k个”隐隐含层”节点都是线性输出的,而maxout的每个节点就是取这k个”隐隐含层”节点输出值中最大的那个值。因为激发函数中有了max操作,所以整个maxout网络也是一种非线性的变换。
补充:在ImageNet Classification with Deep Convolutional Neural Networks的论文中其解释了
RELU取代sigmoid 和tanh函数的原因是在求解梯度下降时RELU的速度更快,在大数集下会节省训练的时间
在这里指出sigmoid和tanh是饱和非线性函数,而RELU是非饱和非线性函数。
对于这个概念我不是很明白,有兴趣的童鞋可以去google一下,百度上是没有的。。。
20160515补充
PRELU激活函数
PReLU激活
PReLU(Parametric Rectified Linear Unit), 顾名思义:带参数的ReLU。二者的定义和区别如下图:
如果ai=0,那么PReLU退化为ReLU;如果ai是一个很小的固定值(如ai=0.01),则PReLU退化为Leaky ReLU(LReLU)。 有实验证明,与ReLU相比,LReLU对最终的结果几乎没什么影响。
PReLU的几点说明
(1) PReLU只增加了极少量的参数,也就意味着网络的计算量以及过拟合的危险性都只增加了一点点。特别的,当不同channels使用相同的ai时,参数就更少了。
(2) BP更新ai时,采用的是带动量的更新方式,如下图:
上式的两个系数分别是动量和学习率。
需要特别注意的是:更新ai时不施加权重衰减(L2正则化),因为这会把ai很大程度上push到0。事实上,即使不加正则化,试验中ai也很少有超过1的。
(3) 整个论文,ai被初始化为0.25。
参见《Delving Deep into Rectifiers:Surpassing Human-Level Performance on ImageNet Classification》.- 神经网络中的激活函数
- 神经网络中的激活函数
- 神经网络中的激活函数
- 神经网络中的激活函数
- 浅析神经网络中的激活函数
- 神经网络中的各种激活函数
- 激活函数在神经网络中的功能
- 深度学习:神经网络中的激活函数
- 神经网络激活函数
- 神经网络-激活函数
- 神经网络激活函数链接
- 神经网络激活函数比较
- 神经网络之激活函数
- 神经网络-激活函数-Activation
- 神经网络-激活函数对比
- 神经网络各个激活函数
- 20171115-神经网络激活函数
- 神经网络的激活函数
- Oracle用户和模式的区别
- Chrome DevTools
- 芒果iOS开发之Apple Pay Programming Guide part2
- Design POX controller step by step
- 简易学生管理系统
- 神经网络中的激活函数
- 判断某个方法是否没执行
- SELinux and LD_PRELOAD
- zlib1.2.8 编译(VS2010)
- 3D翻书效果
- Linux下ssh免密码登录配置(20160309)
- iOS中如何将token加入到afnetworking中请求当中
- VMware10用nat方式固定ip上网设置
- Android Recovery 工作流程