为什么SPP-Net无法fine-tune卷积层
来源:互联网 发布:阿里云上海公司地址 编辑:程序博客网 时间:2024/06/06 04:42
SPP-Net缺陷:和R-CNN一样,它的训练要经过多个阶段,特征也要存在磁盘中,另外,SPP中的微调只更新SPP层后面的全连接层,对很深的网络这样肯定是不行的。
SPP-Net在fine-tuning阶段之所以无法使用反向传播微调SPP-Net前面的Covs层,是因为特征提取CNN的训练和SVMs分类器的训练在时间上是先后顺序,两者的训练方式独立,因此SVMs的训练Loss无法更新SPP-Layer之前的卷积层参数,因此即使采用更深的CNN网络进行特征提取,也无法保证SVMs分类器的准确率一定能够提升。
另外在Fast-RCNN中,由于去掉了SVM分类这一过程,所有特征都存储在显存中,不占用硬盘空间,形成了End-to-End模型(当然proposal除外,end-to-end在Faster-RCNN中得以完善);Fast-RCNN还通过single scale(pooling->spp just for one scale) testing和SVD(降维)分解全连接来减少test time。
Reference:
http://www.cnblogs.com/venus024/p/5717766.html
http://blog.csdn.net/u011534057/article/details/51241831
http://blog.csdn.net/u011534057/article/details/51241831
0 0
- 为什么SPP-Net无法fine-tune卷积层
- fine-tune convolutional network
- caffe fine-tune策略
- digits fine-tune方法
- Caffe之fine tune
- tensorflow & keras fine tune
- 论文阅读---在生物医药图像上应用fine-tune卷积神经网络:active learning and increasely learning
- caffe 学习之 Fine-tune
- CNN训练之fine tune
- caffe— 使用模型进行fine tune
- yolo源码解析及fine-tune
- caffe深度学习(一)fine-tune
- Mxnet图片分类(3)fine-tune
- 卷积神经网络之 fine-tuning
- Caffe windows 下进行(微调)fine-tune 模型
- 使用caffe fine-tune一个单标签图像分类模型
- cs231n-(9)迁移学习和Fine-tune网络
- MXNet的预训练:fine-tune.py源码详解
- 关于初学python的一点问题总结(一)
- iOS通过ASIHttpRequest接收php端发送的Json数据
- 文章标题
- Ajax发送Json数据及解析
- L1-006. 连续因子
- 为什么SPP-Net无法fine-tune卷积层
- 求两个单链表的交点(可能带环)
- Linux centos 学习笔记 DAY2 目录与文件的权限意义
- 深网与暗网初学者指南
- Map接口
- C# 输入法
- 文章标题
- DB2调用 get_dbsize_info的时候,报错SQL0443N和SQL0572N:
- 2017.03.15