caffe笔记6——自定义layer
来源:互联网 发布:新加坡进出口数据 编辑:程序博客网 时间:2024/06/05 22:39
每一种层都对应一个同名cpp和hpp文件
描述一下本次要实现层的功能:
正向直接copy传播,反向时将梯度放缩指定倍。
这个层对一些特定的网络结构有很重要的辅助作用,比如有时我们的网络存在分支,但我们不希望某一分支影响之前层的更新,那么我们就将梯度放缩0倍。
(1)创建HPP头文件diff_cutoff_layer.hpp
不同功能类型的层所引的头文件也不同,具体大家可以到“caffe/include/caffe/layers”目录下找相似的现成的文件参考 。我们这次写的hpp文件最后也要放在这个目录下。
注意:下面注释包起来的部分为需要注意的部分。
特别注意:命名的时候应严格一致和注意大小写,这一点是导致很多人加层失败的主要原因。
//*****************************************#ifndef CAFFE_DIFFCUTOFF_LAYER_HPP_#define CAFFE_DIFFCUTOFF_LAYER_HPP_//*****************************************#include <vector>#include "caffe/blob.hpp"#include "caffe/layer.hpp"#include "caffe/proto/caffe.pb.h"//*****************************************#include "caffe/layers/neuron_layer.hpp"//*****************************************namespace caffe {template <typename Dtype>//******以后我们层的type: "DiffCutoff" ******* class DiffCutoffLayer : public NeuronLayer<Dtype> {//***************************************** public: explicit DiffCutoffLayer(const LayerParameter& param) : NeuronLayer<Dtype>(param) {} virtual void LayerSetUp(const vector<Blob<Dtype>*>& bottom, const vector<Blob<Dtype>*>&top);//****我们只需要一个bottom和一个top***** virtual inline int ExactNumBottomBlobs() const { return 1; }//******以后我们层的type: "DiffCutoff" ******* virtual inline const char* type() const { return "DiffCutoff"; } protected://******这里只写了CPU功能,故删掉了原本的GPU函数 ******* virtual void Forward_cpu(const vector<Blob<Dtype>*>& bottom, const vector<Blob<Dtype>*>& top); virtual void Backward_cpu(const vector<Blob<Dtype>*>& top,const vector<bool>& propagate_down, const vector<Blob<Dtype>*>& bottom);// *****定义一个Dtype型的标量,用来存储梯度放缩倍数*** Dtype diff_scale; };} #endif
(2)创建diff_cutoff_layer.cpp文件
CPP文件应当位于src/caffe/layers下
#include <algorithm>#include <vector>//*****************************************#include "caffe/layers/diff_cutoff_layer.hpp"//*****************************************#include "caffe/util/math_functions.hpp"namespace caffe { template <typename Dtype> void DiffCutoffLayer<Dtype>::LayerSetUp( const vector<Blob<Dtype>*>& bottom, const vector<Blob<Dtype>*>& top) { NeuronLayer<Dtype>::LayerSetUp(bottom, top); // 因为对前向传播不修改,因此top的shape应和bottom的shape相同 top[0]->Reshape(bottom[0]->shape()); } template <typename Dtype> void DiffCutoffLayer<Dtype>::Forward_cpu( const vector<Blob<Dtype>*>& bottom, const vector<Blob<Dtype>*>& top) { // 前向传播直接将bottom的数据copy到top const int count = top[0]->count(); caffe_copy( count, bottom[0]->cpu_data(), top[0]->mutable_cpu_data()); } template <typename Dtype> void DiffCutoffLayer<Dtype>::Backward_cpu(const vector<Blob<Dtype>*>& top,const vector<bool>& propagate_down, const vector<Blob<Dtype>*>& bottom) { const int count = top[0]->count(); const Dtype* top_diff = top[0]->cpu_diff(); //读取我们实际指定的梯度放缩倍数,注意我们的参数名为diff_scale diff_scale= this->layer_param_.diffcutoff_param().diff_scale();// 如果bottom前向传播完成,我们就把top的diff放缩后赋给bottom的diff if (propagate_down[0]) { Dtype* bottom_diff = bottom[0]->mutable_cpu_diff(); caffe_cpu_axpby( count, diff_scale, top_diff, Dtype(0), bottom_diff); } }#ifdef CPU_ONLY STUB_GPU(DiffCutoffLayer);#endif INSTANTIATE_CLASS(DiffCutoffLayer); REGISTER_LAYER_CLASS(DiffCutoff);}
(3)修改src\caffe\proto\caffe.proto文件
这里我们要为我们新写的层添加参数和消息函数。
【1】由于我们的层有一个diff_scale参数,因此我们首先应该在message LayerParameter {}中添加新参数信息。添加信息时,首先要制定一个唯一ID,这个ID的可选值可以由这句话看出:
// NOTE// Update the next available ID when you add a new LayerParameter field.//// LayerParameter next available layer-specific ID: 143 (last added: BatchCLuster)message LayerParameter {
由上图可以看出,可选的ID为143。
于是我们就可以添加这样一行:
optional DiffCutoffParameter diffcutoff_param = 143;【2】在任意位置添加消息函数
message DiffCutoffParameter { optional float diff_scale = 1 [default = 1]; //默认梯度不缩放}
【3】 在message V1LayerParameter {}中添加以下内容
在enum LayerType {}中添加唯一ID,只要在这里不重复即可。
DIFF_CUTOFF=45;外面接着添加,同样ID也是只要不重复即可
optional DiffCutoffParameter diffcutoff_param = 46;
【4】 在message V0LayerParameter {}添加参数定义
optional float diff_scale = 47 [default = 1];
(4)最后重新编译caffe即可
使用方法举例如下:layer { name: "diff_1" type: "DiffCutoff" bottom: "conv1" top: "diff_1" diff_cutoff_param { diff_scale: 0.0001 }}
(5)忠告与建议
(1)一定要注意大小写、一定要注意大小写、一定要注意大小写
(2)不会写、不确定,就去找caffe现有的层来参考模仿
(3)caffe数据操作的函数定义在src/caffe/util/math_functions.cpp,
关于caffe源码可以参考:http://blog.csdn.net/seven_first/article/details/47378697
0 0
- caffe笔记6——自定义layer
- caffe自定义layer
- Caffe—Developing New Layer
- Caffe学习笔记7--自定义layer的实现
- caffe convolution layer 笔记
- Caffe python layer 的自定义
- Caffe python layer 的自定义
- caffe源码简单解析—Layer层
- caffe layer parameters set ——caffe 层的配置
- caffe源码解析—caffe layer的工作原理理解
- Caffe实例开发学习笔记。——网络配置文件 Layer参数详解——
- 《CAlayer——自定义layer》
- Caffe 增加自定义 Layer 及其 ProtoBuffer 参数
- 在caffe中添加自定义的layer
- Caffe 增加自定义 Layer 及其 ProtoBuffer 参数
- 在caffe中添加自定义的layer
- 17.2.23 caffe如何自定义一个layer
- 【caffe学习笔记】loss layer 损失层
- 一种多尺度的KCF跟踪程序代码分析(二)——图片视频转换和初始框输入
- jenkins 自动部署脚本 自动启停tomcat并部署项目
- lsof查看文件被什么进程占用
- mvc4源码调试“未能加载文件或程序集“System.Web.Mvc”或它的某一个依赖项。未能验证强名称签名。解决办法
- 点击图片,弹出层显示图片
- caffe笔记6——自定义layer
- 55 leetcode - N-Queens II
- Using kgdb, kdb and the kernel debugger internals
- HDU 1233最小生成树 Kruscal 算法
- 对matlab中gradient函数的理解与C++中的应用
- Java提高篇-----关键字static
- 面试之前需要回顾的基本知识
- Ajax+Servlet+jsp仿百度搜索效果
- BZOJ2324: [ZJOI2011]营救皮卡丘