Caffe实践C++源码解读(1):如何跑demo

来源:互联网 发布:java并行框架 编辑:程序博客网 时间:2024/05/17 09:09

学习一种工具最简单和最有效的方法是download一个demo,根据教程模拟。Caffe作为深度学习框架,它也是一种工具,官方提供了一些demo,主要是在Caffe运行的网络架构文件。那么如何跑起一个demo呢?或者如何用demo直接做预测呢?

训练:caffe train --solver solver.txt 这样就可以了,如果有已训练好的参数或者进行学习迁移finetuning,那么训练的参数可以添加 "--weight init.caffemodel"或者"--snapshot snapshotfile.solvestate"

测试或预测:caffe test --weight test.caffemodel --model test.txt --iteration test_iteration

更加深入的理解,还要从源码出发,首先Caffe源码的tools目录下的caffe.cpp是生成可执行文件的源码,其中定义了train()和test()两个函数分别执行训练和测试,也可以自定义函数执行特定操作。

首先看train()函数:

  CHECK_GT(FLAGS_solver.size(), 0) << "Need a solver definition to train.";  CHECK(!FLAGS_snapshot.size() || !FLAGS_weights.size())      << "Give a snapshot to resume training or weights to finetune "      "but not both.";
首先检查是否有solver.txt文件,文件名可自定义,但是内容必须符合solver结构,在src/caffe/proto/caffe.proto中有此定义。然后检查snapshot和weight,这两个参数分别用于中断后继续训练和学习迁移的。
参数检查完毕,caffe开始加载solver文件,之后是检查训练要工作在CPU还是GPU。

  caffe::SolverParameter solver_param;  caffe::ReadSolverParamsFromTextFileOrDie(FLAGS_solver, &solver_param);
工作设备设定后,根据加载的solver_param参数创建solver对象,并根据snapshot和weight参数加载模型参数,如果两个参数都没有设置,则模型根据提供的初始化类型或者默认值进行初始化。

shared_ptr<caffe::Solver<float> >      solver(caffe::SolverRegistry<float>::CreateSolver(solver_param));  solver->SetActionFunction(signal_handler.GetActionFunction());  if (FLAGS_snapshot.size()) {    LOG(INFO) << "Resuming from " << FLAGS_snapshot;    solver->Restore(FLAGS_snapshot.c_str());  } else if (FLAGS_weights.size()) {    CopyLayers(solver.get(), FLAGS_weights);  }

设置和初始化完成,就可以训练了。CPU版本的就是solver对象调用其Solver()函数。

  LOG(INFO) << "Starting Optimization";  if (gpus.size() > 1) {#ifdef USE_NCCL    caffe::NCCL<float> nccl(solver);    nccl.Run(gpus, FLAGS_snapshot.size() > 0 ? FLAGS_snapshot.c_str() : NULL);#else    LOG(FATAL) << "Multi-GPU execution not available - rebuild with USE_NCCL";#endif  } else {    solver->Solve();  }

再看test()函数:

首先也是检查solver文件和权值文件weight,但是此时weight必须提供,否则无法预测

  CHECK_GT(FLAGS_model.size(), 0) << "Need a model definition to score.";  CHECK_GT(FLAGS_weights.size(), 0) << "Need model weights to score.";
然后检测当前平台是否支持GPU,如果支持,则默认使用GPU进行预测

// Set device id and mode  vector<int> gpus;  get_gpus(&gpus);  if (gpus.size() != 0) {    LOG(INFO) << "Use GPU with device ID " << gpus[0];#ifndef CPU_ONLY    cudaDeviceProp device_prop;    cudaGetDeviceProperties(&device_prop, gpus[0]);    LOG(INFO) << "GPU device name: " << device_prop.name;#endif    Caffe::SetDevice(gpus[0]);    Caffe::set_mode(Caffe::GPU);  } else {    LOG(INFO) << "Use CPU.";    Caffe::set_mode(Caffe::CPU);  }
平台设定后,创建Net对象初始化预测的神经网络,然后使用weight参数初始化网络权值

  Net<float> caffe_net(FLAGS_model, caffe::TEST, FLAGS_level, &stages);  caffe_net.CopyTrainedLayersFrom(FLAGS_weights);
然后就可以开始预测了

  for (int i = 0; i < FLAGS_iterations; ++i) {    float iter_loss;    const vector<Blob<float>*>& result =        caffe_net.Forward(&iter_loss);    loss += iter_loss;    int idx = 0;    for (int j = 0; j < result.size(); ++j) {      const float* result_vec = result[j]->cpu_data();      for (int k = 0; k < result[j]->count(); ++k, ++idx) {        const float score = result_vec[k];        if (i == 0) {          test_score.push_back(score);          test_score_output_id.push_back(j);        } else {          test_score[idx] += score;        }        const std::string& output_name = caffe_net.blob_names()[            caffe_net.output_blob_indices()[j]];        LOG(INFO) << "Batch " << i << ", " << output_name << " = " << score;      }    }  }

主要是caffe_net.Forward(&iter_loss);这一句,其他都是为了可视化的参数。











原创粉丝点击