神经网络中的激活函数

来源:互联网 发布:剑三喵太捏脸数据 编辑:程序博客网 时间:2024/05/01 02:21

最近在看深度学习的东西,激活函数是其中的一个环节,就从网上的一搜寻关于激活函数的介绍


激活函数是用来加入非线性因素的,因为线性模型的表达能力不够。


常用激活函数 

       激活函数的选择是构建神经网络过程中的重要环节,下面简要介绍常用的激活函数。

(1) 线性函数 ( Liner Function )

 神经网络

(2) 斜面函数 ( Ramp Function )

 神经网络

(3) 阈值函数 ( Threshold Function )

 神经网络

神经网络

图2 . 阈值函数图像

 

       以上3个激活函数都是线性函数,下面介绍两个常用的非线性激活函数。

(4) S形函数 ( Sigmoid Function )

神经网络

  该函数的导函数:

神经网络

(5) 双极S形函数 

神经网络

  该函数的导函数:

神经网络

  S形函数与双极S形函数的图像如下:

神经网络

图3. S形函数与双极S形函数图像

  双极S形函数与S形函数主要区别在于函数的值域,双极S形函数值域是(-1,1),而S形函数值域是(0,1)。

  由于S形函数与双极S形函数都是可导的(导函数是连续函数),因此适合用在BP神经网络中。(BP算法要求激活函数可导)


(5) 双曲正切函数


  该函数的导函数:



(6)ReLu(Rectified Linear Units)函数


- hard ReLU: g(x)=max(0,x)
- Noise ReLU max(0, x+N(0, σ(x)).

  该函数的导函数:

g(x)'=0或1



(7)maxout 函数


这里的W是3维的,尺寸为d*m*k,其中d表示输入层节点的个数,m表示隐含层节点的个数,k表示每个隐含层节点对应了k个”隐隐含层”节点,这k个”隐隐含层”节点都是线性输出的,而maxout的每个节点就是取这k个”隐隐含层”节点输出值中最大的那个值。因为激发函数中有了max操作,所以整个maxout网络也是一种非线性的变换。





补充:在ImageNet Classification with Deep Convolutional Neural Networks的论文中其解释了

RELU取代sigmoid 和tanh函数的原因是在求解梯度下降时RELU的速度更快,在大数集下会节省训练的时间

在这里指出sigmoid和tanh是饱和非线性函数,而RELU是非饱和非线性函数。

对于这个概念我不是很明白,有兴趣的童鞋可以去google一下,百度上是没有的。。。


20160515补充

PRELU激活函数

PReLU激活

PReLU(Parametric Rectified Linear Unit), 顾名思义:带参数的ReLU。二者的定义和区别如下图: 


如果ai=0,那么PReLU退化为ReLU;如果ai是一个很小的固定值(如ai=0.01),则PReLU退化为Leaky ReLU(LReLU)。 有实验证明,与ReLU相比,LReLU对最终的结果几乎没什么影响。

PReLU的几点说明

(1) PReLU只增加了极少量的参数,也就意味着网络的计算量以及过拟合的危险性都只增加了一点点。特别的,当不同channels使用相同的ai时,参数就更少了。

(2) BP更新ai时,采用的是带动量的更新方式,如下图:


上式的两个系数分别是动量和学习率。 
需要特别注意的是:更新ai时不施加权重衰减(L2正则化),因为这会把ai很大程度上push到0。事实上,即使不加正则化,试验中ai也很少有超过1的。

(3) 整个论文,ai被初始化为0.25。

参见《Delving Deep into Rectifiers:Surpassing Human-Level Performance on ImageNet Classification》.


0 0