[caffe的python接口学习二]:生成配置文件

来源:互联网 发布:gta5低配优化 编辑:程序博客网 时间:2024/05/16 17:23

作者:JackGao16 CSDN
邮箱:gshuai16@mail.ustc.edu.cn

在完整的实现利用python接口对网络模型进行训练和推理之前,确定完成一下三个步骤(点击下面文字对应连接教程):

1、上一篇博客我们学习的如何配置caffe的Python接口。

2、图像数据转换成db(leveldb/lmdb)文件

3、计算图片数据的均值

上一篇博客的caffe的Python接口的配置、以及两个链接:图像数据转换成db(leveldb/lmdb)文件和计算图片数据的均值 是训练和预测之前的预处理操作,后面都会用到。

写配置文件

说明:

1、配置文件所针对的是mnist
2、训练数据lmdb文件保存位置在:/home/gaoshuai/caffe/examples/mnist/mnist_train_lmdb
3、测试数据lmdb文件保存位置在:/home/gaoshuai/caffe/examples/mnist/mnist_test_lmdb
4、生成的训练的配置文件保存位置在:/home/gaoshuai/caffe/examples/mnist/train.prototxt
5、生成的测试的配置文件保存位置在:/home/gaoshuai/caffe/examples/mnist/val.prototxt

具体的Python代码如下:

# -*- coding: utf-8 -*-"""Spyder Editor"""from caffe import layers as L,params as P,to_protopath='/home/gaoshuai/caffe/examples/mnist'          #保存数据和配置文件的路径train_lmdb=path+'mnist_train_lmdb'                  #训练数据LMDB文件的位置val_lmdb=path+'mnist_test_lmdb'                     #验证数据LMDB文件的位置mean_file=path+'mean.binaryproto'                   #均值文件的位置train_proto=path+'train.prototxt'                   #生成的训练配置文件保存的位置val_proto=path+'val.prototxt'                       #生成的验证配置文件保存的位置#编写一个函数,用于生成网络def create_net(lmdb,batch_size,include_acc=False):    #创建第一层:数据层。向上传递两类数据:图片数据和对应的标签    data, label = L.Data(source=lmdb, backend=P.Data.LMDB, batch_size=batch_size, ntop=2,        transform_param=dict(crop_size=40,mean_file=mean_file,mirror=True))    #创建第二屋:卷积层    conv1=L.Convolution(data, kernel_size=5, stride=1,num_output=16, pad=2,weight_filler=dict(type='xavier'))    #创建激活函数层    relu1=L.ReLU(conv1, in_place=True)    #创建池化层    pool1=L.Pooling(relu1, pool=P.Pooling.MAX, kernel_size=3, stride=2)    conv2=L.Convolution(pool1, kernel_size=3, stride=1,num_output=32, pad=1,weight_filler=dict(type='xavier'))    relu2=L.ReLU(conv2, in_place=True)    pool2=L.Pooling(relu2, pool=P.Pooling.MAX, kernel_size=3, stride=2)    #创建一个全连接层    fc3=L.InnerProduct(pool2, num_output=1024,weight_filler=dict(type='xavier'))    relu3=L.ReLU(fc3, in_place=True)    #创建一个dropout层    drop3 = L.Dropout(relu3, in_place=True)    fc4 = L.InnerProduct(drop3, num_output=10,weight_filler=dict(type='xavier'))    #创建一个softmax层    loss = L.SoftmaxWithLoss(fc4, label)    if include_acc:             #在训练阶段,不需要accuracy层,但是在验证阶段,是需要的        acc = L.Accuracy(fc4, label)        return to_proto(loss, acc)    else:        return to_proto(loss)def write_net():    #将以上的设置写入到prototxt文件    with open(train_proto, 'w') as f:        f.write(str(create_net(train_lmdb,batch_size=64)))    #写入配置文件        with open(val_proto, 'w') as f:        f.write(str(create_net(val_lmdb,batch_size=32, include_acc=True)))if __name__ == '__main__':    write_net()

通过执行上面的这个文件,就会得到两个配置文件:train.prototxt和val.prototxt,分别用于训练阶段和验证阶段。

可以参考链接:http://www.cnblogs.com/denny402/p/5679037.html
dnney的学习专栏,介绍的十分不错,也是我的入门教程

阅读全文
0 0