微调caffemodel来得到属于自己的高精度分类模型
来源:互联网 发布:杭州linux运维 编辑:程序博客网 时间:2024/05/16 15:00
当我们想自己训练一个图片分类模型时,最让我们头疼的问题就是数据集的收集。一般深度学习都要求样本量在一万以上,当我们的样本量不足时,训练出来的model的精度必然大打折扣。在这种情况下我们其实可以通过微调(fine tuning)别人的model来得到一个符合我们自己分类要求的model。
因为训练好的model里面存放的就是各种各样的参数,微调实际上就是用别人预先训练好的参数,来作为我们的初始化参数,而不需要再去随机初始化了。尤其是在做图像识别分类时,其实深度神经网络的的前面那些层都是时在提取图片特征,最后那些层,尤其是全连接层才开始组合前面提取到的特征来做分类。所以,微调从本质上讲就是改了网络的全连接层,来让它的输出达到我们自己的实际需求。
caffe团队用imagenet数据集中的图片进行训练,迭代30多万次,训练出来一个model,bvlc_reference_caffenet.caffemodel。这个model将图片分为1000类,是目前为止最好的图片分类model了。
一般情况下,我们自己的要用的分类器根本不需要分1000类,所以我们就把网络最后一层的输出数量改成我们需要的分类个数。但对于其他层的结构就要和原网络保持一致,因为参数是根据network而来的。
下面我们就用一个小数据集为例,来介绍一下具体步骤。数据集来源于denny的学习专栏,在此安利一下该博客,很全很详细,值得一看。数据集的下载地址为http://pan.baidu.com/s/1MotUe 这个数据集共有500张图片,分为大巴车、恐龙、大象、鲜花和马五个类,每个类100张。命名分别以3,4,5,6,7开头,各为一类。我从其中每类选出20张作为测试,其余80张作为训练。因此最终训练图片400张(放在train文件夹内,每个类一个子文件夹),测试图片100张(放在test文件夹内,每个类一个子文件夹)。
下载成型model
将bvlc_reference_caffenet.caffemodel(点此下载)下载到caffe根目录下的 models/bvlc_reference_caffenet/ 文件夹下面。
也可以运行脚本文件进行下载:
sudo ./scripts/download_model_binary.py models/bvlc_reference_caffenet
收集数据集
根据自己的需求来寻找数据集,这里就以denny的学习专栏作者徐其华收集的数据集(点此下载)为例来讲解。
将图片下载下来后解压,有两个文件夹一个为训练样本train,一个为测试样本test。将其放在caffe的data文件夹中。
将数据集转化为lmdb格式
为了便于神经网络模型读取数据,我们一般都是要将图片数据转化为lmdb格式的。
首先我们要我们生成图片清单,来表面每张图片属于哪一类。
我们可以通过创建sh脚本文件,调用linux命令来生成图片清单:
create_filelist_train.sh
#!/usr/bin/env shDATA=trainecho "Create train.txt..."rm -rf $DATA/train.txtfind $DATA -name 3*.jpg | cut -d '/' -f2 | sed "s/$/ 0/">>$DATA/train.txtfind $DATA -name 4*.jpg | cut -d '/' -f2 | sed "s/$/ 1/">>$DATA/tmp.txtcat $DATA/tmp.txt>>$DATA/train.txtrm -rf $DATA/tmp.txtfind $DATA -name 5*.jpg | cut -d '/' -f2 | sed "s/$/ 2/">>$DATA/tmp.txtcat $DATA/tmp.txt>>$DATA/train.txtrm -rf $DATA/tmp.txtfind $DATA -name 6*.jpg | cut -d '/' -f2 | sed "s/$/ 3/">>$DATA/tmp.txtcat $DATA/tmp.txt>>$DATA/train.txtrm -rf $DATA/tmp.txtfind $DATA -name 7*.jpg | cut -d '/' -f2 | sed "s/$/ 4/">>$DATA/tmp.txtcat $DATA/tmp.txt>>$DATA/train.txtrm -rf $DATA/tmp.txtecho "Done.."
create_filelist_test.sh
#!/usr/bin/env shDATA=testecho "Create test.txt..."rm -rf $DATA/test.txtfind $DATA -name 3*.jpg | cut -d '/' -f2 | sed "s/$/ 0/">>$DATA/test.txtfind $DATA -name 4*.jpg | cut -d '/' -f2 | sed "s/$/ 1/">>$DATA/tmp.txtcat $DATA/tmp.txt>>$DATA/test.txtrm -rf $DATA/tmp.txtfind $DATA -name 5*.jpg | cut -d '/' -f2 | sed "s/$/ 2/">>$DATA/tmp.txtcat $DATA/tmp.txt>>$DATA/test.txtrm -rf $DATA/tmp.txtfind $DATA -name 6*.jpg | cut -d '/' -f2 | sed "s/$/ 3/">>$DATA/tmp.txtcat $DATA/tmp.txt>>$DATA/test.txtrm -rf $DATA/tmp.txtfind $DATA -name 7*.jpg | cut -d '/' -f2 | sed "s/$/ 4/">>$DATA/tmp.txtcat $DATA/tmp.txt>>$DATA/test.txtrm -rf $DATA/tmp.txtecho "Done.."
跳转到数据集所在目录,执行上面两个脚本文件。就会生成图片清单。
train和test文件夹就会生成图片清单。
而后就需要进行转化为lmdb操作。我们也是通过在re文件夹写两个脚本文件。
create_lmdb_train.sh
#!/usr/bin/env shDATA=/home/yangyuan/caffe/data/re/trainrm -rf $DATA/../img_train_lmdb/home/yangyuan/caffe/build/tools/convert_imageset --shuffle \--resize_height=256 --resize_width=256 \/home/yangyuan/caffe/data/re/train/ $DATA/train.txt $DATA/../img_train_lmdb
create_lmdb_test.sh
#!/usr/bin/env shDATA=/home/yangyuan/caffe/data/re/testrm -rf $DATA/../img_test_lmdb/home/yangyuan/caffe/build/tools/convert_imageset --shuffle \--resize_height=256 --resize_width=256 \/home/yangyuan/caffe/data/re/test/ $DATA/test.txt $DATA/../img_test_lmdb
这样在re文件夹就会生成两个lmdb的文件夹。
最后在re文件夹下建立一个words.txt,用来描述分类对象。
busdinosaurelephantflowerhorse
计算图片数据的均值
图片减去均值后,再进行训练和测试,会提高速度和精度,所以我们要通过如下命令来生成我们训练样本的均值文件。
sudo build/tools/compute_image_mean data/re/img_train_lmdb data/re/mean.binaryproto
调整网络参数
前面我们将bvlc_reference_caffenet.caffemodel下载到caffe根目录下的 models/bvlc_reference_caffenet/ 文件夹下面。在该文件夹下有一个train_val.prototxt,它是用来描述该网络的结构的。我们复制一份重命名为my_train_val.prototxt并对其进行修改。
将前面几层的数据接口改成我们自己的目录:
name: "CaffeNet"layer { name: "data" type: "Data" top: "data" top: "label" include { phase: TRAIN } transform_param { mirror: true crop_size: 227 mean_file: "data/re/mean.binaryproto" }# mean pixel / channel-wise mean instead of mean image# transform_param {# crop_size: 227# mean_value: 104# mean_value: 117# mean_value: 123# mirror: true# } data_param { source: "data/re/img_train_lmdb" batch_size: 256 backend: LMDB }}layer { name: "data" type: "Data" top: "data" top: "label" include { phase: TEST } transform_param { mirror: false crop_size: 227 mean_file: "data/re/mean.binaryproto" }# mean pixel / channel-wise mean instead of mean image# transform_param {# crop_size: 227# mean_value: 104# mean_value: 117# mean_value: 123# mirror: false# } data_param { source: "data/re/img_test_lmdb" batch_size: 50 backend: LMDB }}
将全连接层重命名,并将输出个数改成5,再将accuracy和loss中全连接层的名字做相应的修改:
layer { name: "fc8_1" type: "InnerProduct" bottom: "fc7" top: "fc8_1" param { lr_mult: 1 decay_mult: 1 } param { lr_mult: 2 decay_mult: 0 } inner_product_param { num_output: 5 weight_filler { type: "gaussian" std: 0.01 } bias_filler { type: "constant" value: 0 } }}layer { name: "accuracy" type: "Accuracy" bottom: "fc8_1" bottom: "label" top: "accuracy" include { phase: TEST }}layer { name: "loss" type: "SoftmaxWithLoss" bottom: "fc8_1" bottom: "label" top: "loss"}
修改Solver文件参数
将caffe根目录下的 models/bvlc_reference_caffenet/ 文件夹下面的solver.prototxt,复制一份重命名为my_solver.prototxt并对其进行修改。
主要的调整有:100个测试数据,batch_size为50(见my_train_val.prototxt),因此test_iter设置为2,就能全cover了。base_lr从0.01变成了0.001,这个很重要,微调时的基本学习速率不能太大,学习策略没有改变,步长从原来的100000变成了100,最大的迭代次数也从450000变成了500,动量和权重衰减项都没有修改,依然是GPU模型,网络模型文件和快照的路径根据自己修改 。
net: "models/bvlc_reference_caffenet/my_train_val.prototxt"test_iter: 2test_interval: 50base_lr: 0.001lr_policy: "step"gamma: 0.1stepsize: 100display: 20max_iter: 500momentum: 0.9weight_decay: 0.005snapshot: 10000snapshot_prefix: "models/bvlc_reference_caffenet/caffenet_train"solver_mode: GPU
训练
执行如下命令开始对bvlc_reference_caffenet.caffemodel 来进行微调训练
sudo ./build/tools/caffe train --solver ./models/bvlc_reference_caffenet/my_solver.prototxt --weights ./models/bvlc_reference_caffenet/bvlc_reference_caffenet.caffemodel
训练过程中,loss逐渐减小,accuracy逐渐上升。最终结果如下所示,分类准确率100%!!!
这时候在caffe/models/bvlc_reference_caffenet中生成了一个caffenet_train_iter_500.caffemodel。这就是我们微调训练得到的模型。
用得到的模型来做分类
将caffe根目录下的 models/bvlc_reference_caffenet/ 文件夹下面的deploy.prototxt,复制一份重命名为my_deploy.prototxt并对其进行修改。
就将最后的全连接层改成和my_train_val.prototxt一样的形式。
layer { name: "fc8_1" type: "InnerProduct" bottom: "fc7" top: "fc8_1" inner_product_param { num_output: 5 }}layer { name: "prob" type: "Softmax" bottom: "fc8_1" top: "prob"}
在caffe/python中建立一个python文件
#coding=utf-8 #加载必要的库 import numpy as np import sys,os #设置当前目录 caffe_root = '/home/yangyuan/caffe/' sys.path.insert(0, caffe_root + 'python') import caffe os.chdir(caffe_root) net_file=caffe_root + 'models/bvlc_reference_caffenet/my_deploy.prototxt' caffe_model=caffe_root + 'models/bvlc_reference_caffenet/caffenet_train_iter_500.caffemodel' #mean_file=caffe_root + 'python/caffe/imagenet/ilsvrc_2012_mean.npy' net = caffe.Net(net_file,caffe_model,caffe.TEST) transformer = caffe.io.Transformer({'data': net.blobs['data'].data.shape}) transformer.set_transpose('data', (2,0,1)) #transformer.set_mean('data', np.load(mean_file).mean(1).mean(1)) transformer.set_raw_scale('data', 255) transformer.set_channel_swap('data', (2,1,0)) im=caffe.io.load_image('/home/yangyuan/project/image/flower1.jpg') #im=caffe.io.load_image('/home/yangyuan/caffe/data/re/test/302.jpg') #im=caffe.io.load_image(caffe_root+'examples/images/cat.jpg') net.blobs['data'].data[...] = transformer.preprocess('data',im) out = net.forward() imagenet_labels_filename = caffe_root + 'data/re/words.txt' labels = np.loadtxt(imagenet_labels_filename, str, delimiter='\t') top_k = net.blobs['prob'].data[0].flatten().argsort()[-1:-6:-1] p= net.blobs['prob'].dataprint pprint type(p)print p.shapefor i in np.arange(top_k.size): print labels[top_k[i]],p[0][top_k[i]]
我在网上下了一张花,来让我们的分类器判断一下。
在caffe的根目录运行:
sudo python python/my_classify.py
结果如下,判断为花的可能性为100%。
参考文献
http://www.cnblogs.com/denny402/category/759199.html
http://blog.csdn.net/lanseyuansu/article/details/70937746
- 微调caffemodel来得到属于自己的高精度分类模型
- caffe 框架下微调已有模型训练自己的数据实现图像分类
- 用训练好的模型(caffemodel)来分类
- caffe生成caffemodel以及利用caffemodel进行对自己的图片分类
- 训练自己的数据,微调faster Rcnn模型
- 用自己训练好的caffemodel来对自己的图片做分类
- bvlc_reference_caffenet.caffemodel模型的应用
- 用训练好的模型(caffemodel)来分类新的图片
- 如何将别人训练好的model用到自己的数据上----微调模型
- 微调-模型
- caffe的python接口学习:用训练好的模型(caffemodel或者h5)来分类新的图片
- caffe的python接口学习(6):用训练好的模型(caffemodel)来分类新的图片
- caffe的python接口学习(6):用训练好的模型(caffemodel)来分类新的图片
- caffe的python接口学习(6):用训练好的模型(caffemodel)来分类新的图片
- 使用WMI来得到系统的服务
- caffe训练自己的图片分类模型
- Swift 建立属于自己的框架到上线App
- caffe之利用mnist数据集训练好的lenet_iter_10000.caffemodel模型测试一张自己的手写体数字
- Python 学习日知录(开篇)
- 【论文笔记】物体检测与分割系列 Deformable Convolution Network
- 参数寻优:启发式搜索方法
- 素数距离问题
- Java并发
- 微调caffemodel来得到属于自己的高精度分类模型
- ng-model、ng-bind、ng-value使用区别
- 利用ms12_027漏洞生成文字马
- PAT刷题:1033. 旧键盘打字(20)
- qduoj 真-签到-炸老师的日记(贪心)
- [Codeforces 817E] Choosing The Commander Trie树
- Java Swing 弹出对话框的使用
- TypeError: 'numpy.float64' object cannot be interpreted as an index
- 项目实训-千寻-服务端代码集成测试