一些不错的caffe初学者的教程链接
来源:互联网 发布:什么软件可以备份数据 编辑:程序博客网 时间:2024/05/29 12:08
直接放链接了:
1.这个是关于人脸识别的:http://www.jianshu.com/p/a76c18a3c6d5
2.这个是讲解了一些基础的fine tuning,caffe的基础入门教程:http://www.voidcn.com/article/p-nigpneqn-bac.html
3.github上的一个教程,因为github不仅仅可以上传代码,还可以上传教程,类似于csdn的博客,放链接:
https://github.com/humphd/have-fun-with-machine-learning/blob/master/README_zh-tw.md
可以尝试减小学习率base_lr(默认为0.01),同样对于fine-tuning,也应设置个较低的base_lr(0.001)
对于fine-tuning,还应适当降低stepsize的值(20000),其实就是避免初始模型变得太快而导致发散
输入数据格式改为imagedata,相应的data_param也改为image_data_param,mean_file也不用了,此外由于图像尺寸较大(340*250),需要适当缩小batch_size的值,否则使用GPU时可能超出其缓存大小而报错
最后一层的全连接层的输出改为2(因为这个例子是2元分类),对于fine-tuning,这一层的lr_mult需要适当增加(10),因为这一层在fine-tuning中需要变的最多
4.讲fine-tuning 的一个博客园的博客:http://www.cnblogs.com/louyihang-loves-baiyan/p/5038758.html
具体再看一下这个链接,写的还不错吧,当做第一个fine tuning例子用来跑DenseNet的fine tuning,试一下是否可行
fine-tuning的原因:在这种情况下重新训练一个新的网络是比较复杂的,而且参数不好调整,数据量也不够,因此fine-tuning微调就是一个比较理想的选择。
fine-tuning与training from scratch(重新训练)的区别:fine-tuning是基于之前已经训练好的caffemodel进行继续训练,training from scratch表示重新训练
那么在网络的微调中,我们的整个流程分为以下几步:
- 依然是准备好我们的训练数据和测试数据
- 计算数据集的均值文件,因为集中特定领域的图像均值文件会跟ImageNet上比较General的数据的均值不太一样
- 修改网络最后一层的输出类别,并且需要加快最后一层的参数学习速率
- 调整Solver的配置参数,通常学习速率和步长,迭代次数都要适当减少
- 启动训练,并且需要加载pretrained模型的参数
- 一些不错的caffe初学者的教程链接
- 一些不错的链接
- 一些不错的链接
- Git不错的教程链接
- 一些不错的博客链接
- 一些知识点不错的链接
- 分享一些不错的iPhone 资源链接
- 一些不错的文章链接记录
- 分享一些值得初学者学习的链接
- 一些教程链接的记录
- 关于linux的一些比较不错的链接
- 不错的文章链接
- 不错的链接
- 不错的blog链接
- 不错的链接地址
- 不错的链接-笔记
- 给初学者的RxJava2.0教程(转链接)
- 给初学者的RxJava2.0教程(转链接)
- mvn学习日记(mvn clean install mvn archetype:generate)
- Spring JDBC-使用注解配置声明式事务
- A/B Test;名字取得不好, 很容易让人产生误解
- javawebday08(sax解析入门)
- linux中cp命令的常见用法
- 一些不错的caffe初学者的教程链接
- Qt 学习之路 2(19):事件的接受与忽略
- 支付宝生活号已激活但自动登录提示没权限,什么原因
- 北京赛区(2017)网络赛-I-线段树
- 编译型与解释型、动态语言与静态语言、强类型语言与弱类型语言的区别
- html之a标签不能嵌套a标签及解决方案
- 2017微软秋季校园招聘在线编程笔试-#1402 : MS Recognition
- 16秋计算机JAVA第一节课作业(钟永钜)
- cmd运行class文件提示“错误: 找不到或无法加载主类”