基于Theano的深度学习(Deep Learning)框架Keras学习随笔-16-Normalization

来源:互联网 发布:金刚经 知乎 编辑:程序博客网 时间:2024/05/31 05:28

        本文来自CSDN博客:http://blog.csdn.net/niuwei22007/article/details/49405199

        本篇介绍的内容很少,只有一项就是归一化层。顾名思义就是能够对输入输出进行归一化操作的结构层。

一、BatchNormalization

keras.layers.normalization.BatchNormalization(epsilon=1e-6, weights=None)

        将前一层的激活输出按照数据batch进行归一化。

        inputshape: 任意。当把该层作为模型的第一层时,必须使用该参数(是一个整数元组,不包括样本维度)

        outputshape: 同input shape一样。

        参数

  • epsilon :small float>0,Fuzz parameter。
  • weights:初始化权值。含有2个numpy arrays的list,其shape是[(input_shape,), (input_shape,)]

        本小节参考文献

  • Batch Normalization: AcceleratingDeep Network Training by Reducing Internal Covariate Shift

参考资料:

  • 官方教程

0 0
原创粉丝点击