图像语义分割:从头开始训练deeplab v2系列之四【nyu v2数据集】

来源:互联网 发布:犀牛软件版本分析 编辑:程序博客网 时间:2024/05/21 17:38

在之前的博客已经讲过deeplabv2源码解析、基于VOC2012数据集的训练与基于pascal-context数据集的训练,本博客基于nyu数据集进行fine tuning


官方源码地址如下:https://bitbucket.org/aquariusjay/deeplab-public-ver2/overview
但是此源码只是为deeplab网络做相应变形的caffe,如果需要fine tuning微调网络,还需要准备以下文件:

  • txt文件:文件中有数据集的名字列表的txt文件,此处不同于源码,在pascal-context数据集上自己制作,训练测试集列表

  • 训练好的init.caffemodel: 针对deeplab v2,作者有已经预训练好的两个模型参数:DeepLabv2_VGG16 和DeepLabv2_ResNet101

  • 网络结构prototxt文件: train.prototxt和solver.prototxt,分别在:DeepLabv2_VGG16 和 DeepLabv2_ResNet101

  • 官网脚本文件: 三个sh文件,建议使用脚本文件,初看虽不懂,但是比python版本的运行简单很多

**注:本博客只涉及脚本版本的训练,pascal-context的list文件要自己根据数据集制作,或者使用此博客的list



准备工作

1.必要工具

下载安装matio,下载地址

2.数据集准备

本博客采用的数据集为nyu v2,由其RGB图像及label组成,并没有使用深度图像,数据大致为下图:
这里写图片描述
原始数据集为voc2010,label即为上图中所说的the annotations for training/validation set为ma,需要把mat文件转为png文件

数据下载

# original PASCAL VOC 2010cd ~/DL_dataset       #save datasets 为$DATASETSwget http://horatio.cs.nyu.edu/mit/silberman/nyu_depth_v2/nyu_depth_v2_labeled.mat #2.8 GB

数据转换
注:相关python脚本文件由以下模型训练第一步的github下载得到

修改其中的数据路径为你的trainval所在路径,并在此路径下创建labels文件

cp ~/deeplab_v2/nyu/mat_image.py ~/DL_dataset/nyucp ~/deeplab_v2/nyu/mat_label.py ~/DL_dataset/nyucd ~/DL_dataset/nyupython mat_image.py python mat_label.py

此时nyu数据文件夹产生两个文件夹,分别存放RGB图像和标签图片

RGB三通道nyu图像
这里写图片描述

一通道nyu的标签图像
这里写图片描述

符合list文件夹中train_aug.txt的调用
这里写图片描述



1.从github克隆train deeplab_v2文件夹

此github已经将文件夹结构建好,已保存有源码的prototxt文件,脚本sh文件,并已经自己制作好对应的数据集txt文件,放置到对应文件夹下。由于官方model文件大,不宜放GitHub,将在第3步下载。

cd ~git clone git@github.com:xmojiao/deeplab_v2.git

2.将源码下载到此文件夹下,并编译安装deeplab caffe

cd deeplab_v2git clone https://bitbucket.org/aquariusjay/deeplab-public-ver2.gitcd deeplab-public-ver2make allmake pycaffemake test # NOT mandatorymake runtest # NOT mandatory

3.将官方预训练的model放置到pascal-context的model/deeplab_largeFOV

官方的初始化model为在image net上学习过的结果,train_iter_20000.caffemodel为在voc2012上训练过的结果。此处我们可以使用init.caffemodel,train_iter_20000.caffemodel要自己生成
此处以VGG16训练为例,model下载地址
也可在命令行下载并移动到相应文件夹,如下:

wget http://liangchiehchen.com/projects/released/deeplab_aspp_vgg16/prototxt_and_model.zipunzip prototxt_and_model.zipmv *caffemodel ~/deeplab_v2/nyu/model/deeplab_largeFOVrm *prototxt

4.deeplab2的script脚本文件run_pascal.sh 解析

目前我们已经准备好数据集和数据txt文件,参数文件model,网络结构文件prototxt,和三个sh脚本文件,接下来只需要修改run_pascal.sh文件,deeplabv2就可以run起来了。
注:与从头开始训练deeplab v2系列之三【pascal context数据集】一样,修改了21类的label的类别数为459类

## MODIFY PATH for YOUR SETTINGROOT_DIR=/home/guo/DL_datasetCAFFE_DIR=../deeplab-public-ver2 #所下载编译的deeplab源码目录CAFFE_BIN=${CAFFE_DIR}/.build_release/tools/caffe.binEXP=.if [ "${EXP}" = "." ]; then    NUM_LABELS=459 #**本脚本文件与voc2012的最大区别之处,修改类别21为459类**    DATA_ROOT=${ROOT_DIR}/nyu   else    NUM_LABELS=0    echo "Wrong exp name"fi which model to train########### voc12 ################NET_ID=deeplab_largeFOV ##此处原文件名有问题应该改为deeplab_largeFOV## Variables used for weakly or semi-supervisedly training#TRAIN_SET_SUFFIX=TRAIN_SET_SUFFIX=_aug  #此处为选择train_aug.txt数据集#TRAIN_SET_STRONG=train#TRAIN_SET_STRONG=train200#TRAIN_SET_STRONG=train500#TRAIN_SET_STRONG=train1000#TRAIN_SET_STRONG=train750#TRAIN_SET_WEAK_LEN=5000DEV_ID=0####### Create dirsCONFIG_DIR=${EXP}/config/${NET_ID} #此处目录为/nyu/config/deeplab_largeFOVMODEL_DIR=${EXP}/model/${NET_ID}mkdir -p ${MODEL_DIR}LOG_DIR=${EXP}/log/${NET_ID}mkdir -p ${LOG_DIR}export GLOG_log_dir=${LOG_DIR}## RunRUN_TRAIN=1 #为1说明执行trainRUN_TEST=0 #为1说明执行testRUN_TRAIN2=0RUN_TEST2=0## Training #1 (on train_aug)if [ ${RUN_TRAIN} -eq 1 ]; then  #r如果RUN_TRAIN为1    #    LIST_DIR=${EXP}/list    TRAIN_SET=train${TRAIN_SET_SUFFIX}    if [ -z ${TRAIN_SET_WEAK_LEN} ]; then #如果TRAIN_SET_WEAK_LEN长度为零则为真                TRAIN_SET_WEAK=${TRAIN_SET}_diff_${TRAIN_SET_STRONG}                comm -3 ${LIST_DIR}/${TRAIN_SET}.txt ${LIST_DIR}/${TRAIN_SET_STRONG}.txt > ${LIST_DIR}/${TRAIN_SET_WEAK}.txt    else                TRAIN_SET_WEAK=${TRAIN_SET}_diff_${TRAIN_SET_STRONG}_head${TRAIN_SET_WEAK_LEN}                comm -3 ${LIST_DIR}/${TRAIN_SET}.txt ${LIST_DIR}/${TRAIN_SET_STRONG}.txt | head -n ${TRAIN_SET_WEAK_LEN} > ${LIST_DIR}/${TRAIN_SET_WEAK}.txt    fi    #    MODEL=${EXP}/model/${NET_ID}/init.caffemodel #下载的vgg16或者ResNet101中的 model    #    echo Training net ${EXP}/${NET_ID}    for pname in train solver; do                sed "$(eval echo $(cat sub.sed))" \                        ${CONFIG_DIR}/${pname}.prototxt > ${CONFIG_DIR}/${pname}_${TRAIN_SET}.prototxt    done  #此部分运行时如以下命令        CMD="${CAFFE_BIN} train \         --solver=${CONFIG_DIR}/solver_${TRAIN_SET}.prototxt \         --gpu=${DEV_ID}"        if [ -f ${MODEL} ]; then                CMD="${CMD} --weights=${MODEL}"        fi        echo Running ${CMD} && ${CMD}fi#train部分运行时,即以下运行命令 ../deeplab-public-ver2/.build_release/tools/caffe.bin train --solver=./config/deeplab_largeFOV/solver_train_aug.prototxt --gpu=0 --weights=./model/deeplab_largeFOV/init.caffemodel#上述命令中,solver_train_aug.prototxt由solve.prototxt文件复制而来,init.caffemodel为原始下载了的VGG16的model## Test #1 specification (on val or test)if [ ${RUN_TEST} -eq 1 ]; then    #    for TEST_SET in val; do                TEST_ITER=`cat ${EXP}/list/${TEST_SET}.txt | wc -l` #此处计算val.txt文件中测试图片个数,共1449个                MODEL=${EXP}/model/${NET_ID}/test.caffemodel                if [ ! -f ${MODEL} ]; then                        MODEL=`ls -t ${EXP}/model/${NET_ID}/train_iter_*.caffemodel | head -n 1`                fi                #                echo Testing net ${EXP}/${NET_ID}                FEATURE_DIR=${EXP}/features/${NET_ID}                mkdir -p ${FEATURE_DIR}/${TEST_SET}/fc8        mkdir -p ${FEATURE_DIR}/${TEST_SET}/fc9                mkdir -p ${FEATURE_DIR}/${TEST_SET}/seg_score                sed "$(eval echo $(cat sub.sed))" \                        ${CONFIG_DIR}/test.prototxt > ${CONFIG_DIR}/test_${TEST_SET}.prototxt                CMD="${CAFFE_BIN} test \             --model=${CONFIG_DIR}/test_${TEST_SET}.prototxt \             --weights=${MODEL} \             --gpu=${DEV_ID} \             --iterations=${TEST_ITER}"                echo Running ${CMD} && ${CMD}    donefi#test部分运行时,即以下运行命令../deeplab-public-ver2/.build_release/tools/caffe.bin test --model=./config/deeplab_largeFOV/test_val.prototxt --weights=./model/deeplab_largeFOV/train_iter_20000.caffemodel --gpu=0 --iterations=154#上述命令中,test_val.prototxt由test.prototxt文件复制而来,train_iter_20000.caffemode由第一部分train得到的model

5.deeplab跑起来

同前两篇博客一样,此处我将train和test分开操作,即是修改run_pascal.sh脚本中的如下代码:
这里写图片描述


  • RUN_TRAIN=1 时
cd ~/deeplab_v2/nyush run_pascal.sh 2>&1|tee train.log

2>&1|tee train.log
指令的作用为在命令行展示log的同时,保存log到当前目录的train.log文件夹。前工作做的顺利的话,你就能看到如下结果。

这里写图片描述

这里写图片描述

  • RUN_TEST=1

目前没发现作者有写单张图片测试的代码,但是当我们跑此部分run_test时,会得到png格式的测试结果

跑出测试结果

sh run_pascal.sh 2>&1|tee train.log

这里写图片描述

这里写图片描述



6.将test的结果mat文件转换为png文件

同voc2012的测试结果一样,test结束,你会在~/deeplab_v2/nyu/features/deeplab_largeFOV/val/fc8目录下跑出mat格式的结果。


mat转png图片
-修改creat_labels.py中文件目录

cd ~/deeplab_v2/nyu/vim create_labels_249.py

这里写图片描述


-在此目录运行creat_labels_249.py

同pascal-context数据集图像采用全分割的方式一样,本次训练的数据集有459个类别,原来的21种颜色无法充分表达,但考虑到颜色类别有限,所以博主采用249种颜色来表达459种类物体。

python create_labels_249.py

pascal-context得到的结果如下

这里写图片描述                         . 

阅读全文
1 0