Inception网络理解
来源:互联网 发布:网络四十大禁书 编辑:程序博客网 时间:2024/06/01 10:41
inception的设计思路:
1. inception在增加特征表达能力的同时减少计算。
2. 模型更精巧复杂了,增加BN和gradient clipping去稳定训练。
池化用来降低特征图大小,为避免表示瓶颈,即更有效的保存图像信息,应在池化之前增加滤波器数目
Inception v1模型
Inception v1的网络,将1x1,3x3,5x5的conv和3x3的pooling,堆叠在一起,一方面增加了网络的width,另一方面增加了网络对尺度的适应性;
第一张图是论文中提出的最原始的版本,所有的卷积核都在上一层的所有输出上来做,那5×5的卷积核所需的计算量就太大了,造成了特征图厚度很大。为了避免这一现象提出的inception具有如下结构,在3x3前,5x5前,max pooling后分别加上了1x1的卷积核起到了降低特征图厚度的作用,也就是Inception v1的网络结构,降低了通道数!
Inception v2模型
一方面了加入了BN层,减少了Internal Covariate Shift(内部neuron的数据分布发生变化),使每一层的输出都规范化到一个N(0, 1)的高斯;
另外一方面学习VGG用2个3x3的conv替代inception模块中的5x5,既降低了参数数量,也加速计算;
使用3×3的已经很小了,那么更小的2×2呢?2×2虽然能使得参数进一步降低,但是不如另一种方式更加有效,那就是Asymmetric方式,即使用1×3和3×1两种来代替3×3的卷积核。这种结构在前几层效果不太好,但对特征图大小为12~20的中间层效果明显。
Inception v3模型
v3一个最重要的改进是分解(Factorization),将7x7分解成两个一维的卷积(1x7,7x1),3x3也是一样(1x3,3x1),这样的好处,既可以加速计算(多余的计算能力可以用来加深网络),又可以将1个conv拆成2个conv,使得网络深度进一步增加,增加了网络的非线性,还有值得注意的地方是网络输入从224x224变为了299x299,更加精细设计了35x35/17x17/8x8的模块。
Inception v4模型
v4研究了Inception模块结合Residual Connection能不能有改进?发现ResNet的结构可以极大地加速训练,同时性能也有提升,得到一个Inception-ResNet v2网络,同时还设计了一个更深更优化的Inception v4模型,能达到与Inception-ResNet v2相媲美的性能。
原始的模块:
残差模块:其中的+就是residual connection了。通过20个类似的模块组合,就可以得到残差网络;
- Inception网络理解
- ResNet, AlexNet, VGG, Inception: 理解各种卷积网络的结构
- Inception
- 谷歌Inception网络中的Inception-V3到Inception-V4具体作了哪些优化?
- Googlenet 的 Inception结构理解笔记
- Tensorflow实例分析Google Inception v3 网络
- 深度学习之基础网络-Inception-V4
- 网络模型 Inception V2/V3-Rethinking the Inception Architecture for Computer Vision
- 可视化Google Inception V3模型的网络结构
- tensorflow系列:如何使用inception resnet v2网络
- 下载Inception v-3模行 观察网络模型
- Inception-v4, Inception-ResNet
- Inception 模型
- Inception 初探
- GoogleNet Inception
- Inception V3
- Inception V1
- Inception V2
- Unix-Linux编程实践教程——第十二章
- MySql数据库-03DDL语言(下)之操作数据表
- SQL
- golang 字典树 搜索+sugg 示例
- 轻松掌握正则表达式(3)
- Inception网络理解
- 【bzoj2120】数颜色
- AIO
- 一个强大有趣的工具箱
- java经典笔试题~求链表是否带环,即其链表的长度
- NOIP模拟:情报传输(树上倍增)
- Linux定义信号的一些细节处理
- 如何通过<a></a>中的href刷新当前界面
- oracle中select及字符串拼接,like,||等