caffe 理清项目训练、测试流程

来源:互联网 发布:sql合并相同行并合计 编辑:程序博客网 时间:2024/06/07 08:00
 理清项目训练、测试流程
一、要领介绍
    在caffe编译完后,在caffe目录下会生成一个build目录,在build目录下有个tools,这个里面有个可执行文件caffe。只需要学会调用这个可执行文件就可以了,这便是最简单的caffe学习,不需要对caffe底层的东西懂太多,只需要会调参数,就可以构建自己的网络,然后调用这个可执行文件就可以进行训练,当然如果你不仅仅是调参数,而且想要更改相关的算法,那就要深入学习caffe的底层函数调用了。

二、大体步骤
1、数据格式处理(.jpg,.png等图片以及标注标签) (lmdb格式 / leveldb格式)

    create_imagenet.sh(caffe/example/imagenet) : 这个文件可快速生成lmdb的数据格式,只需复制这个脚本文件出来,稍作修改,就可以对我们的训练图片、标注文件进行打包为lmdb格式文件了。

    ( 注意:自己对自己的图像数据进行数据处理要制作四个文件:train和val文件夹存放图像,train.txt和val.txt 图片名和标签 )

    按需修改:

# N.B. set the path to the imagenet train + val data dirs(路径修改)
set -e

EXAMPLE=examples/imagenet (# 生成模型训练数据文化夹)
DATA=data/ilsvrc12        (# python脚本处理后数据路径)
TOOLS=build/tools         (# caffe的工具库,不用变)


TRAIN_DATA_ROOT=train/     (#待处理的训练数据图片路径)(新建)
VAL_DATA_ROOT=val/         (#待处理的验证数据图片路径) (新建)


# Set RESIZE=true to resize the images to 256x256. Leave as false if images have
# already been resized using another tool.(一般在网络中用了其他工具)
RESIZE=false             (使用:RESIZE=true   #图片缩放)
if $RESIZE; then
  RESIZE_HEIGHT=256
  RESIZE_WIDTH=256
else
  RESIZE_HEIGHT=0
  RESIZE_WIDTH=0
....
 $DATA/train.txt \     #标签训练数据文件  
 $DATA/val.txt \    #验证集标签数据  


2、编写网络结构文件(.prototxt (如lenet_train_test.prototxt))(网络有多少层,每一层有多少个特征图,输入、输出……)
    
    type: "Data"  :  定义的data层,定义(train/test)输入数据的路径、图片变换等

3、网络求解文件(solver.prototxt (lenet_solver.prototxt))(描述:求解网络,梯度下降参数、迭代次数等参数、CPU/GPU…)

     首句:<span style="font-size:18px;">net: "examples/mnist/lenet_train_test.prototxt"
     文件输入就是我们前面一步定义的网络结构的位置

4、编写网络求解文件后,要把(solver.prototxt)文件作为caffe的输入参数,调用caffe可执行文件,进行训练就可以了。
      开始训练的具体命令如下:
   1、  ./build/tools/caffe train --solver=examples/mnist/lenet_solver.prototxt 
   2、  sudo sh ./build/tools/caffe train --solver=examples/mnist/train_lenet.sh
      (   
  #!/usr/bin/env sh
  set -e

           ./build/tools/caffe train --solver=examples/mnist/lenet_solver.prototxt $@


     (命令行讲解地址):
http://blog.csdn.net/qq_36620489/article/details/74853334
     
三、总结:   
    
    文件调用过程:首先caffe可执行文件,调用了solver.prototxt文件,而这个文件又调用了网络结构文件lenet_train_test.prototxt,然后lenet_train_test.prototxt文件里面又会调用输入的训练图片数据等。
    训练自己的模型,需要备好3个文件:数据文件lmdb(该文件包含寻数据)、网络结构lenet_train_test.prototxt、求解文件solver.prototxt,这几个文件名随便,但是文件后缀格式不要随便乱改。把这三个文件放在同一个目录下,然后在终端输入命令,调用caffe就可以开始训练了。  


四、具体操作细节

数据处理制作四个文件

1、文件夹train,用于存放训练图片

2、文件夹val,用于存放验证图片

3、文件train.txt,里面包含这每张图片的名称,及其对应的标签。


<span style="font-size:18px;">first_batch/train_female/992.jpg    1  
first_batch/train_female/993.jpg    1  
first_batch/train_female/994.jpg    1  
first_batch/train_female/995.jpg    1  
first_batch/train_female/996.jpg    1  
first_batch/train_female/997.jpg    1  
first_batch/train_female/998.jpg    1  
first_batch/train_female/999.jpg    1  
first_batch/train_male/1000.jpg 0  
first_batch/train_male/1001.jpg 0  
first_batch/train_male/1002.jpg 0  
first_batch/train_male/1003.jpg 0  
first_batch/train_male/1004.jpg 0  
first_batch/train_male/1005.jpg 0  
first_batch/train_male/1006.jpg 0  
first_batch/train_male/1007.jpg 0  
first_batch/train_male/1008.jpg 0</span>  
上面的标签编号:1,表示女。标签:0,表示男。


4、文件val.txt,同样这个文件也是保存图片名称及其对应的标签。

这四个文件在上面的脚本文件中,都需要调用到。制作玩后,跑一下 create_imagenet.sh脚本文件,就ok了,跑完后,即将生成下面两个文件夹: train_lmdb  /  val_lmdb
文件夹下面有两个对应的文件:  data.mdb  /  lock.mdb
(这文件和系统自带例子一样)

制作完后,要看看文件的大小,有没有问题,如果就几k,那么正常是没做好训练数据,除非你的训练图片就几张。


二、训练

1、直接训练法

#!/usr/bin/env sh  
TOOLS=../cafferead/build/tools  
$TOOLS/caffe train --solver=gender_solver.prorotxt  -gpu all  #加入 -gpu 选项  

    -gpu 可以选择gpu的id号,如果是 -gpu all表示启用所有的GPU进行训练。


2、采用funing-tuning 训练法

$TOOLS/caffe train --solver=gender_solver.prorotxt -weights gender_net.caffemodel #加入-weights  

     加入-weights,这个功能很好用,也经常会用到,因为现在的CNN相关的文献,很多都是在已有的模型基础上,进行fine-tuning,因为我们大部分人都缺少训练数据,不像谷歌、百度这些土豪公司,有很多人专门做数据标注,对于小公司而言,往往缺少标注好的训练数据。因此我们一般使用fine-tuning的方法,在少量数据的情况下,尽可能的提高精度。我们可以使用:-weights 选项,利用已有的模型训练好的参数,作为初始值,进行继续训练。


三、调用Python接口

    训练完毕后,我们就可以得到caffe的训练模型了,接着我们的目标就预测,看看结果了。caffe为我们提供了方便调用的python接口函数,这些都在模块pycaffe里面。因此我们还需要知道如何使用pycaffe,进行测试,查看结果。下面是pycaffe的预测调用使用示例:

# coding=utf-8  
import os  
import numpy as np  
from matplotlib import pyplot as plt  
import cv2  
import shutil  
import time  
  
#因为RGB和BGR需要调换一下才能显示  
def showimage(im):  
    if im.ndim == 3:  
        im = im[:, :, ::-1]  
    plt.set_cmap('jet')  
    plt.imshow(im)  
    plt.show()  
  
#特征可视化显示,padval用于调整亮度  
def vis_square(data, padsize=1, padval=0):  
    data -= data.min()  
    data /= data.max()  
  
    #因为我们要把某一层的特征图都显示到一个figure上,因此需要计算每个图片占用figure多少比例,以及绘制的位置  
    n = int(np.ceil(np.sqrt(data.shape[0])))  
    padding = ((0, n ** 2 - data.shape[0]), (0, padsize), (0, padsize)) + ((0, 0),) * (data.ndim - 3)  
    data = np.pad(data, padding, mode='constant', constant_values=(padval, padval))  
  
    # tile the filters into an image  
    data = data.reshape((n, n) + data.shape[1:]).transpose((0, 2, 1, 3) + tuple(range(4, data.ndim + 1)))  
    data = data.reshape((n * data.shape[1], n * data.shape[3]) + data.shape[4:])  
  
    showimage(data)  
  
  
#设置caffe源码所在的路径  
caffe_root = '../../../caffe/'  
import sys  
sys.path.insert(0, caffe_root + 'python')  
import caffe  
  
  
#加载均值文件  
mean_filename='./imagenet_mean.binaryproto'  
proto_data = open(mean_filename, "rb").read()  
a = caffe.io.caffe_pb2.BlobProto.FromString(proto_data)  
mean  = caffe.io.blobproto_to_array(a)[0]  
  
#创建网络,并加载已经训练好的模型文件  
gender_net_pretrained='./caffenet_train_iter_1500.caffemodel'  
gender_net_model_file='./deploy_gender.prototxt'  
gender_net = caffe.Classifier(gender_net_model_file, gender_net_pretrained,mean=mean,  
                       channel_swap=(2,1,0),#RGB通道与BGR  
                       raw_scale=255,#把图片归一化到0~1之间  
                       image_dims=(256, 256))#设置输入图片的大小  
  
#预测分类及其可特征视化  
gender_list=['Male','Female']  
input_image = caffe.io.load_image('1.jpg')#读取图片  
  
prediction_gender=gender_net.predict([input_image])#预测图片性别  
#打印我们训练每一层的参数形状  
print 'params:'  
for k, v in gender_net.params.items():  
    print 'weight:'  
    print (k, v[0].data.shape)#在每一层的参数blob中,caffe用vector存储了两个blob变量,用v[0]表示weight  
    print 'b:'  
    print (k, v[1].data.shape)#用v[1]表示偏置参数  
#conv1滤波器可视化  
filters = gender_net.params['conv1'][0].data  
vis_square(filters.transpose(0, 2, 3, 1))  
#conv2滤波器可视化  
'''''filters = gender_net.params['conv2'][0].data 
vis_square(filters[:48].reshape(48**2, 5, 5))'''  
#特征图  
print 'feature maps:'  
for k, v in gender_net.blobs.items():  
    print (k, v.data.shape);  
    feat = gender_net.blobs[k].data[0,0:4]#显示名字为k的网络层,第一张图片所生成的4张feature maps  
    vis_square(feat, padval=1)  
  
#显示原图片,以及分类预测结果  
str_gender=gender_list[prediction_gender[0].argmax()]  
print str_gender  
  
plt.imshow(input_image)  
plt.title(str_gender)  
plt.show()  

上面的接口,同时包含了pycaffe加载训练好的模型,进行预测及其特征可视化的调用方法。

参考博客:

http://blog.csdn.net/hjimce/article/details/48933813


原创粉丝点击