使用FCN做图像语义分割(实践篇)
来源:互联网 发布:java中的io流详解 编辑:程序博客网 时间:2024/06/05 17:20
FCN原理
原理我已经在上篇博客说过,大家可以参考FCN原理篇
代码
FCN
有官方的代码,具体地址是FCN官方代码
不过我用的不是这个代码,我用的是别人修改官方的版本的代码,使用Chainer
框架实现的,Chainer
的源码链接:
Chainer框架源码,如果大家使用过Keras
的话,应该对它不会感到特别的陌生,Chainer: a neural network framework
好了,我使用的代码是FCN的Chainer implementation, 具体地址是FCN Chainer implementation
安装
安装很简单,直接pip
或者源码安装都可以,但是我在我的机器上装过几次,发现使用pip
的方式最后fcn.data_dir
这个变量的值会指向到你系统的python下的dist-packages这个目录,但是这个目录需要root权限,所以不推荐使用pip
直接安装的方式; 关于此问题的说明见:
fcn.data_dir的问题
所以我最后使用的是源码安装的方式,这里推荐使用virtualenv
工具建立虚拟环境,实践中发现这是最不会出错的方式,推荐使用!
clone代码
git clone https://github.com/wkentaro/fcn.git –recursive
使用virtualenv安装
sudo pip install virtualenv #安装virtualenv
创建虚拟目录
virtualenv test-fcn
cd test-fcn
激活虚拟环境
source ./bin/activate
克隆fcn代码
git clone https://github.com/wkentaro/fcn.git –recursive
cd fcn
安装fcn
python setup.py develop
demo
下载VOC2012
数据集,放入fcn-data-pascal-VOC2012路径下
1. 转换caffe model为Chainer model
./scripts/caffe_to_chainermodel.py
2. load model,进行分割
./scripts/fcn_forward.py –img-files data/pascal/VOC2012/JPEGImages/2007_000129.jpg
训练自己的数据
这个前后搞了快一个月,才把最终的训练搞定,其中艰辛很多,在这里写出来供大家参考
准备自己的数据集
数据集做成VOC2012
的segementClass
的样子,下图是示例,上面一张是原图,下面一张是分割图
但是每一种label指定的物体都有对应的具体的颜色,这个我们犯了很多错,最后跟踪代码找出来的,具体的每一类的RGB值如下:
这里只列出10类的值,更多类的可以看下面这段代码:
def bitget(byteval, idx): return ((byteval & (1 << idx)) != 0)def labelcolormap(N=256): cmap = np.zeros((N, 3)) #N是类别数目 for i in xrange(0, N): id = i r, g, b = 0, 0, 0 for j in xrange(0, 8): r = np.bitwise_or(r, (bitget(id, 0) << 7-j)) g = np.bitwise_or(g, (bitget(id, 1) << 7-j)) b = np.bitwise_or(b, (bitget(id, 2) << 7-j)) id = (id >> 3) cmap[i, 0] = r cmap[i, 1] = g cmap[i, 2] = b cmap = cmap.astype(np.float32) / 255 #获得Cmap的RGB值 return cmapdef _label_rgb_to_32sc1(self, label_rgb): assert label_rgb.dtype == np.uint8 label = np.zeros(label_rgb.shape[:2], dtype=np.int32) label.fill(-1) cmap = fcn.util.labelcolormap(len(self.target_names)) cmap = (cmap * 255).astype(np.uint8) #转换为整数值 for l, rgb in enumerate(cmap): mask = np.all(label_rgb == rgb, axis=-1) label[mask] = l return label
按照此颜色表做图就没有问题,代码可以正确的读取分割的ground-truth结果
原始的图像放在fcn/data/pascal/VOC2012/JPEGImages
分割的图像放在fcn/data/pascal/VOC2012/SegmentationClass
之后在fcn/data/pascal/VOC2012/ImageSets/Segmentation
写train.txt
,trainval.txt
,val.txt
,写入需要进行相应任务的图片的编号
修改代码
fcn/scripts/fcn_train.py
# setup optimizer optimizer = O.MomentumSGD(lr=1e-10, momentum=0.99) #这里的lr一定要小,大的话程序会报错,我使用的是1e-9 optimizer.setup(model) # train trainer = fcn.Trainer( dataset=dataset, model=model, optimizer=optimizer, weight_decay=0.0005, test_interval=1000, max_iter=100000, snapshot=4000, gpu=gpu, )
fcn/fcn/pascal.py
target_names = np.array([ 'background', 'aeroplane', 'bicycle', 'bird', 'boat', 'bottle', 'bus', 'car', 'cat', 'chair', 'cow', 'diningtable', 'dog', 'horse', 'motorbike', 'person', 'potted plant', 'sheep', 'sofa', 'train', 'tv/monitor', ]) #修改成自己的,记得按照颜色表写
fcn/fcn/util.py
def resize_img_with_max_size(img, max_size=500*500): #修改max_size,按照实际写 """Resize image with max size (height x width)""" from skimage.transform import rescale height, width = img.shape[:2] scale = max_size / (height * width) resizing_scale = 1 if scale < 1: resizing_scale = np.sqrt(scale) img = rescale(img, resizing_scale, preserve_range=True) img = img.astype(np.uint8) return img, resizing_scale
fcn/fcn/models/fcn32s.py
def __init__(self, n_class=21): #修改类别n_class self.n_class = n_class super(self.__class__, self).__init__( conv1_1=L.Convolution2D(3, 64, 3, stride=1, pad=100), conv1_2=L.Convolution2D(64, 64, 3, stride=1, pad=1), conv2_1=L.Convolution2D(64, 128, 3, stride=1, pad=1), conv2_2=L.Convolution2D(128, 128, 3, stride=1, pad=1), conv3_1=L.Convolution2D(128, 256, 3, stride=1, pad=1), conv3_2=L.Convolution2D(256, 256, 3, stride=1, pad=1), conv3_3=L.Convolution2D(256, 256, 3, stride=1, pad=1), conv4_1=L.Convolution2D(256, 512, 3, stride=1, pad=1), conv4_2=L.Convolution2D(512, 512, 3, stride=1, pad=1), conv4_3=L.Convolution2D(512, 512, 3, stride=1, pad=1), conv5_1=L.Convolution2D(512, 512, 3, stride=1, pad=1), conv5_2=L.Convolution2D(512, 512, 3, stride=1, pad=1), conv5_3=L.Convolution2D(512, 512, 3, stride=1, pad=1), fc6=L.Convolution2D(512, 4096, 7, stride=1, pad=0), fc7=L.Convolution2D(4096, 4096, 1, stride=1, pad=0), score_fr=L.Convolution2D(4096, self.n_class, 1, stride=1, pad=0), upscore=L.Deconvolution2D(self.n_class, self.n_class, 64, stride=32, pad=0), ) self.train = False
训练
./scripts/fcn_train.py
其会在
fcn/data/
下创建一个目录叫做SegmentationClassDataset_db
,里面存放训练的图片的pickle数据,如果需要修改原始的训练图片则需要将此目录删除,否则默认读取此目录内的pickle数据作为图像的原始数据会在
fcn
下创建snapshot
这个目录,里面有训练保存的model
,日志文件等,重新训练的话,建议删除此目录
使用自己训练的model
./scripts/fcn_forward.py -c path/to/your/model -i path/to/your/image
结果存放在fcn/data/forward_out
下
- 使用FCN做图像语义分割(实践篇)
- 使用FCN做图像语义分割(实践篇)
- 使用FCN做图像语义分割(实践篇)
- 使用FCN做图像语义分割
- FCN图像语义分割
- 图像语义分割之FCN和CRF
- 图像语义分割之FCN和CRF
- 图像语义分割之FCN和CRF
- 图像语义分割之FCN和CRF
- 图像语义分割之FCN和CRF
- 图像语义分割(1)- FCN
- 图像语义分割之FCN和CRF
- 图像语义分割之FCN和CRF
- 图像语义分割之FCN和CRF
- 图像语义分割之FCN和CRF
- keras版FCN网络进行图像语义分割--使用VOC2012数据
- fcn语义分割 论文
- FCN语义分割
- 网易 星际穿越
- STL容器vector使用
- 第1章 Windows程序内部运行机制
- Android如何实现获取短信验证码的功能
- Exynos4412 Uboot 移植(三)—— Uboot添加自定义命令
- 使用FCN做图像语义分割(实践篇)
- hive去除指定重复的数据举例
- 网易 藏宝图
- LeetCode001__TWO SUM
- SSM实战记录(二)--在线OJ系统
- 【笔记】PMBOK第9章项目人力资源管理
- Servlet 基础知识
- 2026 首字母变大写
- ordered fractions_usaco2.1.2_codevs2042