巧妙利用TFlearn训练自己的数据集(一)

来源:互联网 发布:本月经济数据 编辑:程序博客网 时间:2024/06/08 09:59

本人研究方向为目标分类识别。

研究生阶段的研究创新点已经初具规模,老师要求多有对比实验。

利用其他经典网络来训练自己收集的图片训练集,是我想到比较直观的办法。TFlearn是Tensorflwo的一个高级API,里面有各种已经写好的网络代码示例,简单明了。(具体关于TFLearn的资料,大家自己去百度大笑

在TFlearn文件夹下examples/images/里面有许多图像分类的网络可用,但缺点是里面的网络用的数据Oxford17 ,Cifar10 ,Mnist三大经典数据集,而且每个网络的数据导入函数又关联到其他函数,好不麻烦!!!


经过投机取巧的思考,如训练自己的数据集,解决方法如下:


以使用Oxford17数据集为代表的Alexnet为例:

Alexnet代码如下

from __future__ import division, print_function, absolute_importimport tflearnfrom tflearn.layers.core import input_data, dropout, fully_connectedfrom tflearn.layers.conv import conv_2d, max_pool_2dfrom tflearn.layers.normalization import local_response_normalizationfrom tflearn.layers.estimator import regressionimport tflearn.datasets.oxflower17 as oxflower17X, Y = oxflower17.load_data(one_hot=True, resize_pics=(227, 227)) ##此句调用了tflearn文件夹下dataset中oxflower17.py函数,##此函数主要作用是下载Oxfords数据# Building 'AlexNet'network = input_data(shape=[None, 227, 227, 3])network = conv_2d(network, 96, 11, strides=4, activation='relu')network = max_pool_2d(network, 3, strides=2)network = local_response_normalization(network)network = conv_2d(network, 256, 5, activation='relu')network = max_pool_2d(network, 3, strides=2)network = local_response_normalization(network)network = conv_2d(network, 384, 3, activation='relu')network = conv_2d(network, 384, 3, activation='relu')network = conv_2d(network, 256, 3, activation='relu')network = max_pool_2d(network, 3, strides=2)network = local_response_normalization(network)network = fully_connected(network, 4096, activation='tanh')network = dropout(network, 0.5)network = fully_connected(network, 4096, activation='tanh')network = dropout(network, 0.5)network = fully_connected(network, 17, activation='softmax')network = regression(network, optimizer='momentum',                     loss='categorical_crossentropy',                     learning_rate=0.001)# Trainingmodel = tflearn.DNN(network, checkpoint_path='model_alexnet',                    max_checkpoints=1, tensorboard_verbose=2)model.fit(X, Y, n_epoch=1000, validation_set=0.1, shuffle=True,          show_metric=True, batch_size=64, snapshot_step=200,          snapshot_epoch=False, run_id='alexnet_oxflowers17')
运行alexnet.py

python alexnet.py

开始下载.......下载完成后在当前目录下会生成一个17flowers文件夹

打开文件夹,分析里面的文件


其中jpg文件里面是17种花朵的图片,有17个子文件夹,每个文件夹代表一类; 17flowers.pkl是代码自动生成的一个分类文件 ; 17flowers.tgz是下载完成的压缩包。


分析完成后,我们开始替换自己的数据,比如说我们需要将50000张图片10分类,即在jpg文件夹下新建10个文件夹,每个文件夹下包含此类的图片,例如我的实验数据如下:

(我做的食物分类)

完成后,删除前面自动生成的 17flowers.pkl文件!!!!!(很重要)

删除之后,直接运行alexnet.py文件,即可开始训练自己的数据集!


需要注意的一点是:图片的尺寸问题!

1.可能你的图片和Alexnet自带测试集的图片尺寸不一样,需要reshape一下

2.卷积核大小问题,网络层与层之间的卷积核大小关系要正确,这需要一点深度学习的基础知识,大家自己学习。



等有时间,我会更新如何训练 以convnet_cifar10.py为代表的使用 CIFAR10 数据集的网络


本人初学者,有疏漏之处还需见谅

阅读全文
0 0
原创粉丝点击