BN使用
来源:互联网 发布:巨人网络借壳过程 编辑:程序博客网 时间:2024/05/22 06:48
一、简介
转载来自:http://blog.csdn.net/sunbaigui/article/details/50807398
如果将googlenet称之为google家的inception v1的话,其Batch Normalization(http://arxiv.org/pdf/1502.03167v3.pdf)文章讲的就是BN-inception v1。
它不是网络本身本质上的内容修改,而是为了将conv层的输出做normalization以使得下一层的更新能够更快,更准确。
二、网络分析
caffe官方将BN层拆成两个层来实验,一个是https://github.com/BVLC/caffe/blob/master/include/caffe/layers/batch_norm_layer.hpp,
另外一个是https://github.com/BVLC/caffe/blob/master/include/caffe/layers/scale_layer.hpp。
其具体使用方法可以参考:https://github.com/KaimingHe/deep-residual-networks/blob/master/prototxt/ResNet-50-deploy.prototxt
中的BatchNorm与Scale。
BN-inceptionv1训练速度较原googlenet快了14倍,在imagenet分类问题的top5上达到4.8%,超过了人类标注top5准确率。
//-----------------------------------------------------------------------------------------------------//
在Caffe中使用Batch Normalization需要注意以下两点,
1. 要配合Scale层一起使用,具体参见http://blog.csdn.net/sunbaigui/article/details/50807398以及Residual Network
2. 训练的时候,将BN层的use_global_stats设置为false,然后测试的时候将use_global_stats设置为true,不然训练的时候会报“NAN”或者模型不收敛 —— 这个其实挺难注意到的
- BN使用
- BN
- BN
- BN
- tensorflow使用BN—Batch Normalization
- BN and Caffe BN
- 深度网络里白化跟BN的使用区别!!
- BN层
- Tensorflow BN
- bn层
- BN算法
- 卷积神经网络CNN(2)—— BN(Batch Normalization) 原理与使用过程详解
- caffe中的batchNorm层(caffe 中为什么bn层要和scale层一起使用)
- 小BN,大杀器
- bn 层及其变种
- 均值问题and BN
- Batch Normalization(BN)
- tensorflow: bn层
- 4. camera调试日志
- synchronized 和 lock 区别
- YII2 存取控制过滤器(ACF)
- 编码基础知识
- kamailio服务器负载均衡配置过程中,将几个sip服务器同时指向同一个mysql,出现的错误解决
- BN使用
- 5. 指纹调试日志
- bzoj 1084: [SCOI2005]最大子矩阵
- 有关于css,html超出部分滚动,但是不出现滚动条
- XML约束之DTD约束&DTD对元素属性的约束规则
- 6. sensor调试日志
- 1012. 数字分类 (20) Python 2 编译
- 安卓USB开发教程 <三> USB Accessory
- Kali_msf