工厂模式-CaffeNet训练
来源:互联网 发布:方正综艺简体下载 mac 编辑:程序博客网 时间:2024/05/30 04:30
参考链接:http://blog.csdn.net/lingerlanlan/article/details/32329761
RNN神经网络:http://nbviewer.ipython.org/github/BVLC/caffe/blob/master/examples/detection.ipynb
官方链接:http://nbviewer.ipython.org/github/BVLC/caffe/blob/master/examples/classification.ipynb
参考链接:http://suanfazu.com/t/caffe-shen-du-xue-xi-kuang-jia-shang-shou-jiao-cheng/281/3
模型定义中有一点比较容易被误解,信号在有向图中是自下而上流动的,并不是自上而下。
层的结构定义如下:
1 name:层名称 2 type:层类型 3 top:出口 4 bottom:入口
Each layer type defines three critical computations: setup, forward, andbackward.
- Setup: initialize the layer and its connections once at model initialization.
- Forward: given input from bottom compute the output and send to the top.
- Backward: given the gradient w.r.t. the top output compute the gradient w.r.t. to the input and send to the bottom. A layer with parameters computes the gradient w.r.t. to its parameters and stores it internally.
/home/wishchin/caffe-master/examples/hdf5_classification/train_val2.prototxt
name: "LogisticRegressionNet"layer { name: "data" type: "HDF5Data" top: "data" top: "label" include { phase: TRAIN } hdf5_data_param { source: "hdf5_classification/data/train.txt" batch_size: 10 }}layer { name: "data" type: "HDF5Data" top: "data" top: "label" include { phase: TEST } hdf5_data_param { source: "hdf5_classification/data/test.txt" batch_size: 10 }}layer { name: "fc1" type: "InnerProduct" bottom: "data" top: "fc1" param { lr_mult: 1 decay_mult: 1 } param { lr_mult: 2 decay_mult: 0 } inner_product_param { num_output: 40 weight_filler { type: "gaussian" std: 0.01 } bias_filler { type: "constant" value: 0 } }}layer { name: "relu1" type: "ReLU" bottom: "fc1" top: "fc1"}layer { name: "fc2" type: "InnerProduct" bottom: "fc1" top: "fc2" param { lr_mult: 1 decay_mult: 1 } param { lr_mult: 2 decay_mult: 0 } inner_product_param { num_output: 2 weight_filler { type: "gaussian" std: 0.01 } bias_filler { type: "constant" value: 0 } }}layer { name: "loss" type: "SoftmaxWithLoss" bottom: "fc2" bottom: "label" top: "loss"}layer { name: "accuracy" type: "Accuracy" bottom: "fc2" bottom: "label" top: "accuracy" include { phase: TEST }}
关于参数与结果的关系:多次训练效果一直在0.7,后来改动了全链接层的初始化参数。高斯分布的标准差由0.001改为0.0001,就是调小了。 我的结果有点相似。
0 0
- 工厂模式-CaffeNet训练
- 工厂模式-CaffeNet训练
- txt和lmdb训练caffenet设置对比
- txt和lmdb训练caffenet设置对比
- caffe----训练自己的图片caffenet模型
- windows 训练、微调caffenet 训练测试自己的数据
- 用自己的数据训练和测试“caffenet”
- caffe利用caffenet训练自己的图片数据
- caffe示例实现之5用CaffeNet训练与测试自己的数据集
- Caffe 实例笔记 1 CaffeNet从训练到分类及可视化参数特征 微调
- caffe示例实现之5用CaffeNet训练与测试自己的数据集
- caffe示例实现之5用CaffeNet训练与测试自己的数据集
- caffe + win10基于CaffeNet网络框架训练自己的图片进行分类(实践篇)
- Caffe_Windows学习笔记(二)用自己的数据训练和测试CaffeNet
- 【caffe】caffenet在windows下训练以及遇到的一系列问题——【caffe学习二】
- CaffeNet简介
- [好程序员训练营]-----java基础笔记之设计模式之单例模式和工厂模式
- 工厂模式 -- 工厂方法
- 定点量化误差python仿真.频率响应(2)
- poj 1061 青蛙的约会 ex_gcd
- jQuery1.9+ 废弃的函数和方法 升级Jquery版本遇到的问题
- IO流第十二课,字节数组流与文件流对接
- Java垃圾回收机制
- 工厂模式-CaffeNet训练
- 第二章 13
- 【新浪微博项目】05--自定义TabBarButton
- Servlet的内置对象
- POJ 1150-The Last Non-zero Digit(求阶乘最后一位非零数)
- hdu 4035 Maze(概率DP进阶,树形DP)
- 一定要打造极致的产品吗?
- POJ 题目2392 Space Elevator(多重背包)
- 1241 Oil Deposits