Caffe中实现多标签数据准备及训练

来源:互联网 发布:护卫神linux 编辑:程序博客网 时间:2024/06/05 00:39

第一种说明方式:

拷贝convert_imageset,生成新工程convert_imageset_multi_label

image

 

修改源码

复制代码
std::ifstream infile(argv[2]);    std::vector<std::pair<std::string, std::vector<float>> > lines;    std::string filename;    std::string label_count_string = argv[5];    int label_count = std::atoi(label_count_string.c_str());    std::vector<float> label(label_count);    while (infile >> filename) {        for (int i = 0; i < label_count; i++)            infile >> label[i];        lines.push_back(std::make_pair(filename, label));    }    if (FLAGS_shuffle) {        // randomly shuffle data        LOG(INFO) << "Shuffling data";        shuffle(lines.begin(), lines.end());    }    LOG(INFO) << "A total of " << lines.size() << " images.";    if (encode_type.size() && !encoded)        LOG(INFO) << "encode_type specified, assuming encoded=true.";    int resize_height = std::max<int>(0, FLAGS_resize_height);    int resize_width = std::max<int>(0, FLAGS_resize_width);    // Create new DB    scoped_ptr<db::DB> db_image(db::GetDB(FLAGS_backend));    scoped_ptr<db::DB> db_label(db::GetDB(FLAGS_backend));    db_image->Open(argv[3], db::NEW);    db_label->Open(argv[4], db::NEW);    scoped_ptr<db::Transaction> txn_image(db_image->NewTransaction());    scoped_ptr<db::Transaction> txn_label(db_label->NewTransaction());//   // Create new DB//   scoped_ptr<db::DB> db(db::GetDB(FLAGS_backend));//   db->Open(argv[3], db::NEW);//   scoped_ptr<db::Transaction> txn(db->NewTransaction());  // Storing to db  std::string root_folder(argv[1]);  Datum datum_image;  Datum datum_label;  int count = 0;  int data_size = 0;  bool data_size_initialized = false;  for (int line_id = 0; line_id < lines.size(); ++line_id) {    bool status;    std::string enc = encode_type;    if (encoded && !enc.size()) {      // Guess the encoding type from the file name      string fn = lines[line_id].first;      size_t p = fn.rfind('.');      if ( p == fn.npos )        LOG(WARNING) << "Failed to guess the encoding of '" << fn << "'";      enc = fn.substr(p);      std::transform(enc.begin(), enc.end(), enc.begin(), ::tolower);    }    status = ReadImageToDatum(root_folder + lines[line_id].first,        lines[line_id].second[0], resize_height, resize_width, is_color,        enc, &datum_image);    if (status == false) continue;    if (check_size) {      if (!data_size_initialized) {          data_size = datum_image.channels() * datum_image.height() * datum_image.width();        data_size_initialized = true;      } else {          const std::string& data = datum_image.data();        CHECK_EQ(data.size(), data_size) << "Incorrect data field size "            << data.size();      }    }    // sequential    string key_str = caffe::format_int(line_id, 8) + "_" + lines[line_id].first;    // Put in db    string out;    CHECK(datum_image.SerializeToString(&out));    txn_image->Put(key_str, out);    //////////////////////////////////////////////////////////////////////////            datum_label.set_channels(label_count);    datum_label.set_height(1);    datum_label.set_width(1);        datum_label.clear_data();    datum_label.clear_float_data();    datum_label.set_encoded(false);    std::vector<float> label_vec = lines[line_id].second;    for (int i = 0; i < label_vec.size();i++)    {        datum_label.add_float_data(label_vec[i]);    }    string out_label;    CHECK(datum_label.SerializeToString(&out_label));    txn_label->Put(key_str, out_label);    //////////////////////////////////////////////////////////////////////////    if (++count % 1000 == 0) {      // Commit db      txn_image->Commit();      txn_image.reset(db_image->NewTransaction());      txn_label->Commit();      txn_label.reset(db_label->NewTransaction());      LOG(INFO) << "Processed " << count << " files.";    }  }  // write the last batch  if (count % 1000 != 0) {    txn_image->Commit();    txn_label->Commit();    LOG(INFO) << "Processed " << count << " files.";  }
复制代码

上述方式使用了二个data层,编译之后,使用如下方式生成:

Build\x64\Release>convert_imageset_multi_label.exe ./ train.txt data/train_image_lmdb data/train_label_lmdb 4

train.txt文件格式如下:

data/00A03AF5-41C7-4966-8EF3-8B2C90DCF75C_cgfn.jpg 1 2 3 6
data/00A15FBD-9637-44C5-B2E7-81611263C88C_tmph.jpg 2 5 6 4

网络配置文件需要加入slice层将标签分割开来

layer {
  name: "slice"
  type: "Slice"
  bottom: "label"
  top: "label_1"
  top: "label_2"
  top: "label_3"
  top: "label_4"
  slice_param {
    axis: 1
    slice_point: 1
    slice_point: 2
    slice_point: 3
  }
}

 

image


  


第二种说明方式:

Caffe多标签输入常用的的方法有以下几种: 
1. 修改Caffe源码使其支持多标签输入,参考CSDN博客《caffe 实现多标签输入(multilabel、multitask)》 
2. HDF5 + Slice Layer,HDF5支持多标签,但Caffe在读取HDF5时会将所有数据一次性预读进内存中,在数据量较大时就对内存有较高要求了;也可以对数据分片,通过在prototxt文件中加入Slice Layer层使Caffe依次读取每个数据分片。 
3. 使用两个data输入(例如两个LMDB,一个存储图片,一个存储多标签),然后修改prototxt文件配置两个data layer。

本文只讨论上面第三种方法支持多标签输入。Caffe中单标签LMDB的创建可以通过自带的脚本很方便的实现,但多标签LMDB的创建并不像单标签那样简单易用,需要使用者对Caffe的Data Layer有足够的了解,对于大多数将Caffe作为一个黑盒的使用者而言,这个问题是非常麻烦的。不过该问题已经纳入了Caffe developer的讨论中了,相信不久后Caffe就能方便快速的进行多标签数据的准备了。

多标签的场景下,数据是 N x H x W x C 的一个4维的blob,对应的标签是 N x M x 1 x 1的一个4维的blob。我们通常通过如下几个步骤来进行数据准备:

创建图片LMDB

使用下面的代码创建两个图片LMDB: 
- train_data_lmdb - 用于训练的图片LMDB 
- val_data_lmdb - 用于测试的图片LMDB

# 生成训练图片列表文件,即将tarin_images_dir目录下所有图片的路径写入temp.txt文件find tarin_images_dir -type f -exec echo {} \; > temp.txt# 在temp.txt文件中每一行后追加伪标签,伪标签起占位符作用,实际并不使用 sed "s/$/ 0/" temp.txt > train_images.txt# 根据train_images.txt创建train_data_lmdb$CAFFE_HOME/build/tools/convert_imageset -resize_height=256 -resize_width=256 / train_images.txt train_data_lmdb# 计算图片均值$CAFFE_HOME/build/tools/compute_image_mean train_data_lmdb mean.binaryproto
  • 1
  • 2
  • 3
  • 4
  • 5
  • 6
  • 7
  • 8
  • 9
  • 10
  • 11

上面的代码用来生成train_data_lmdb,接下来修改代码生成val_data_lmdb.

创建标签LMDB

使用下面的代码创建两个标签LMDB: 
- train_label_lmdb - 用于训练的标签LMDB 
- val_label_lmdb - 用于测试的标签LMDB

读入每幅图片的多标签,生成标签LMDB,注意图片LMDB和标签LMDB中的顺序一致,创建LMDB的部分python 
代码如下:

import sys import numpy as npimport lmdbcaffe_root = '/home/xinxin/caffe/' sys.path.insert(0, caffe_root + 'python')import caffe# 根据多标签的位置选择从数据库、文件等中读取每幅图片的多标签,将其构造成一维的np.array类型,并追加入all_labels列表all_labels = []# Add your code of reading labels here !# 创建标签LMDBkey = 0lmdb_path = "/home/xinxin/dl-vsearch/2016-6-27/train_label_lmdb"env = lmdb.open(lmdb_path, map_size=map_size)with env.begin(write=True) as txn:     for labels in all_labels:        datum = caffe.proto.caffe_pb2.Datum()        datum.channels = labels.shape[0]        datum.height = 1        datum.width =  1        datum.data = labels.tostring()          # or .tobytes() if numpy < 1.9         datum.label = 0        key_str = '{:08}'.format(key)        txn.put(key_str.encode('ascii'), datum.SerializeToString())        key += 1
  • 1
  • 2
  • 3
  • 4
  • 5
  • 6
  • 7
  • 8
  • 9
  • 10
  • 11
  • 12
  • 13
  • 14
  • 15
  • 16
  • 17
  • 18
  • 19
  • 20
  • 21
  • 22
  • 23
  • 24
  • 25
  • 26
  • 27
  • 28

上面的代码用来生成train_label_lmdb,接下来修改代码生成val_label_lmdb.

修改prototxt文件

上面我们已经创建了四个数据集train_data_lmdb、val_data_lmdb、train_label_lmdb、val_label_lmdb,并且计算了图片均值mean.binaryproto。

接下来就是修改神经网络deploy.prototxt使其支持多标签训练。由于有四个数据集,我们只需要在deploy.txt中加入四个data layers,分别用来配置这四个数据集。需要注意的是在标签lmdb对应的data layer的参数transform_param中通过scaling参数对label进行缩放,该操作的作用是按照Sigmoid Cross Entropy Loss函数的要求将label范围从[0,255]正则化到[0,1](根据采用的多标签Loss函数的要求,scaling参数可以修改)。

将deploy.prototxt中原有的data layers修改为如下的四个data layers:

# ------------- 配置训练阶段的图片数据集 ----------------layers {  name: "data"  type: DATA  top: "data"  include {    phase: TRAIN  }  transform_param {    mirror: true    crop_size: 224    mean_file: "data.binaryproto"    # 修改为你的均值文件路径  }  data_param {    source: "train_data_lmdb"        # 修改为你的图片lmdb路径    batch_size: 32    backend: LMDB  }}# ------------- 配置训练阶段的标签数据集 ----------------layers {  name: "data"  type: DATA  top: "label"  include {    phase: TRAIN  }  transform_param {    scale: 0.00390625                 # 根据需求设置标签缩放系数    mean_value: 0  }  data_param {    source: "train_label_lmdb"        # 修改为训练集图片lmdb路径    batch_size: 32    backend: LMDB  }}# ------------- 配置测试阶段的图片数据集 ----------------layers {  name: "data"  type: DATA  top: "data"  include {    phase: TEST  }  transform_param {    mirror: false    crop_size: 224    mean_file: "mean.binaryproto"      # 修改为你的均值文件路径  }  data_param {    source: "val_data_lmdb"            # 修改为训练阶段的图片lmdb路径    batch_size: 1    backend: LMDB  }}# ------------- 配置测试阶段的标签数据集 ----------------layers {  name: "data"  type: DATA  top: "label"  include {    phase: TEST  }  transform_param {    scale: 0.00390625                  # 根据需求设置标签缩放系数    mean_value: 0  }  data_param {    source: "val_label_lmdb"           # 修改为测试阶段的标签lmdb路径    batch_size: 1    backend: LMDB  }}......# ----------------- 多标签损失函数  -------------------layers {  name: "loss"  type: SIGMOID_CROSS_ENTROPY_LOSS  bottom: "fc8"                       # 根据需求配置  bottom: "label"  top: "loss"}


原创粉丝点击