cnn学习笔记

来源:互联网 发布:关于人工智能英语作文 编辑:程序博客网 时间:2024/05/20 21:21

cnn学习笔记

  1. ReLU(修正线性单元)层在每个卷积层之后,通常会立即应用一个非线性层(或激活层)。其目的是给一个在卷积层中刚经过线性计算操作(只是数组元素依次(element wise)相乘与求和)的系统引入非线性特征。过去,人们用的是像双曲正切和 S 型函数这样的非线性方程,但研究者发现 ReLU 层效果好得多,因为神经网络能够在准确度不发生明显改变的情况下把训练速度提高很多(由于计算效率增加)。它同样能帮助减轻梯度消失的问题——由于梯度以指数方式在层中消失,导致网络较底层的训练速度非常慢。ReLU 层对输入内容的所有值都应用了函数 f(x) = max(0, x)。用基本术语来说,这一层把所有的负激活(negative activation)都变为零。这一层会增加模型乃至整个神经网络的非线性特征,而且不会影响卷积层的感受野。
    作者:机器之心
    链接:https://www.zhihu.com/question/52668301/answer/131573702
    来源:知乎
    著作权归作者所有。商业转载请联系作者获得授权,非商业转载请注明出处。