基于MNIST数据集实现车牌识别--初步演示版
来源:互联网 发布:pinnacle软件 编辑:程序博客网 时间:2024/06/11 15:53
在前几天写的一篇博文《如何从TensorFlow的mnist数据集导出手写体数字图片》中,我们介绍了如何通过TensorFlow将mnist手写体数字集导出到本地保存为bmp文件。
车牌识别在当今社会中广泛存在,其应用场景包括各类交通监控和停车场出入口收费系统,在自动驾驶中也得到一定应用,其原理也不难理解,故很适合作为图像处理+机器学习的入门案例。
现在我们不妨酝酿一个大胆的想法:在TensorFlow中通过卷积神经网络+mnist数字集实现车牌识别。
实际上车牌字符除了数字0-9,还有字母A-Z,以及各省份的简称。只包含数字0-9的mnist是不足以识别车牌的。故本文所做实验仅出于演示目的。
由于车牌数字是正体,而mnist是手写体,为提高识别率,需要从mnist图片集中挑选出形状比较规则工整的图片作为训练图片,否则识别率不高。作为参考,下图是我挑选出来的一部分较工整数字:
(如果你需要我挑选出来的图片,可以评论或私信我留下邮箱)
出于演示目的,我们从网上找到下面这张图片:
现在我们假设该车牌号为闽0-16720(实际上是闽O-1672Q),暂不识别省份简称,只识别0-16720。
上图经过opencv定位分割处理后,得到以下几张车牌字符。现在我们通过如下代码,将这几张字符图片输入到上一篇博文《如何用TensorFlow训练和识别/分类自定义图片》中构建的网络:
license_num = [] for n in range(2,8): path = "result/%s.bmp" % (n) img = Image.open(path) width = img.size[0] height = img.size[1] img_data = [[0]*784 for i in range(1)] for h in range(0, height): for w in range(0, width): if img.getpixel((w, h)) < 190: img_data[0][w+h*width] = 0 else: img_data[0][w+h*width] = 1 # 获取softmax结果前三位的index和概率值 soft_max = tf.nn.softmax(tf.matmul(h_fc1_drop, W_fc2) + b_fc2) result = sess.run(soft_max, feed_dict = {x: np.array(img_data), keep_prob: 1.0}) max1 = 0 max2 = 0 max3 = 0 max1_index = 0 max2_index = 0 max3_index = 0 for j in range(10): if result[0][j] > max1: max1 = result[0][j] max1_index = j continue if (result[0][j]>max2) and (result[0][j]<=max1): max2 = result[0][j] max2_index = j continue if (result[0][j]>max3) and (result[0][j]<=max2): max3 = result[0][j] max3_index = j continue license_num.append(max1_index) print ("softmax结果前三位概率:%s: %.2f%% %s: %.2f%% %s: %.2f%%" % (max1_index,max1*100, max2_index,max2*100, max3_index,max3*100)) print ("车牌号为: %s" % license_num)
然后运行程序,结果如下:
可以看出,分类结果为016720,是正确的,而softmax计算结果可信度也是可以接受的。
后续将给出包含省份简称和字母A-Z的完整例子。
最后附上本文程序的完整代码(运行之前需要确保你的数据集和待识别图片的位深度都是8,也就是一个像素的颜色值用一个字节(8bits)表示,不然会出错):
#!/usr/bin/python3.5# -*- coding: utf-8 -*- import osimport numpy as npimport tensorflow as tffrom PIL import Image# 第一次遍历图片目录是为了获取图片总数input_count = 0for i in range(0,10): dir = './custom_images/%s/' % i # 这里可以改成你自己的图片目录,i为分类标签 for rt, dirs, files in os.walk(dir): for filename in files: input_count += 1# 定义对应维数和各维长度的数组input_images = np.array([[0]*784 for i in range(input_count)])input_labels = np.array([[0]*10 for i in range(input_count)])# 第二次遍历图片目录是为了生成图片数据和标签index = 0for i in range(0,10): dir = './custom_images/%s/' % i # 这里可以改成你自己的图片目录,i为分类标签 for rt, dirs, files in os.walk(dir): for filename in files: filename = dir + filename img = Image.open(filename) width = img.size[0] height = img.size[1] for h in range(0, height): for w in range(0, width): # 通过这样的处理,使数字的线条变细,有利于提高识别准确率 if img.getpixel((w, h)) > 230: input_images[index][w+h*width] = 0 else: input_images[index][w+h*width] = 1 input_labels[index][i] = 1 index += 1# 定义输入节点,对应于图片像素值矩阵集合和图片标签(即所代表的数字)x = tf.placeholder(tf.float32, shape=[None, 784])y_ = tf.placeholder(tf.float32, shape=[None, 10])x_image = tf.reshape(x, [-1, 28, 28, 1])# 定义第一个卷积层的variables和opsW_conv1 = tf.Variable(tf.truncated_normal([7, 7, 1, 32], stddev=0.1))b_conv1 = tf.Variable(tf.constant(0.1, shape=[32]))L1_conv = tf.nn.conv2d(x_image, W_conv1, strides=[1, 1, 1, 1], padding='SAME')L1_relu = tf.nn.relu(L1_conv + b_conv1)L1_pool = tf.nn.max_pool(L1_relu, ksize=[1, 2, 2, 1], strides=[1, 2, 2, 1], padding='SAME')# 定义第二个卷积层的variables和opsW_conv2 = tf.Variable(tf.truncated_normal([3, 3, 32, 64], stddev=0.1))b_conv2 = tf.Variable(tf.constant(0.1, shape=[64]))L2_conv = tf.nn.conv2d(L1_pool, W_conv2, strides=[1, 1, 1, 1], padding='SAME')L2_relu = tf.nn.relu(L2_conv + b_conv2)L2_pool = tf.nn.max_pool(L2_relu, ksize=[1, 2, 2, 1], strides=[1, 2, 2, 1], padding='SAME')# 全连接层W_fc1 = tf.Variable(tf.truncated_normal([7 * 7 * 64, 1024], stddev=0.1))b_fc1 = tf.Variable(tf.constant(0.1, shape=[1024]))h_pool2_flat = tf.reshape(L2_pool, [-1, 7*7*64])h_fc1 = tf.nn.relu(tf.matmul(h_pool2_flat, W_fc1) + b_fc1)# dropoutkeep_prob = tf.placeholder(tf.float32)h_fc1_drop = tf.nn.dropout(h_fc1, keep_prob)# readout层W_fc2 = tf.Variable(tf.truncated_normal([1024, 10], stddev=0.1))b_fc2 = tf.Variable(tf.constant(0.1, shape=[10]))y_conv = tf.matmul(h_fc1_drop, W_fc2) + b_fc2# 定义优化器和训练opcross_entropy = tf.reduce_mean(tf.nn.softmax_cross_entropy_with_logits(labels=y_, logits=y_conv))train_step = tf.train.AdamOptimizer((1e-4)).minimize(cross_entropy)correct_prediction = tf.equal(tf.argmax(y_conv, 1), tf.argmax(y_, 1))accuracy = tf.reduce_mean(tf.cast(correct_prediction, tf.float32))with tf.Session() as sess: sess.run(tf.global_variables_initializer()) print ("一共读取了 %s 个输入图像, %s 个标签" % (input_count, input_count)) # 设置每次训练op的输入个数和迭代次数,这里为了支持任意图片总数,定义了一个余数remainder,譬如,如果每次训练op的输入个数为60,图片总数为150张,则前面两次各输入60张,最后一次输入30张(余数30) batch_size = 60 iterations = 100 batches_count = int(input_count / batch_size) remainder = input_count % batch_size print ("数据集分成 %s 批, 前面每批 %s 个数据,最后一批 %s 个数据" % (batches_count+1, batch_size, remainder)) # 执行训练迭代 for it in range(iterations): # 这里的关键是要把输入数组转为np.array for n in range(batches_count): train_step.run(feed_dict={x: input_images[n*batch_size:(n+1)*batch_size], y_: input_labels[n*batch_size:(n+1)*batch_size], keep_prob: 0.5}) if remainder > 0: start_index = batches_count * batch_size; train_step.run(feed_dict={x: input_images[start_index:input_count-1], y_: input_labels[start_index:input_count-1], keep_prob: 0.5}) # 每完成五次迭代,判断准确度是否已达到100%,达到则退出迭代循环 iterate_accuracy = 0 if it%5 == 0: iterate_accuracy = accuracy.eval(feed_dict={x: input_images, y_: input_labels, keep_prob: 1.0}) print ('iteration %d: accuracy %s' % (it, iterate_accuracy)) if iterate_accuracy >= 1: break; print ('完成训练!') license_num = [] for n in range(2,8): path = "result/%s.bmp" % (n) img = Image.open(path) width = img.size[0] height = img.size[1] img_data = [[0]*784 for i in range(1)] for h in range(0, height): for w in range(0, width): if img.getpixel((w, h)) < 190: img_data[0][w+h*width] = 0 else: img_data[0][w+h*width] = 1 # 获取softmax结果前三位的index和概率值 soft_max = tf.nn.softmax(tf.matmul(h_fc1_drop, W_fc2) + b_fc2) result = sess.run(soft_max, feed_dict = {x: np.array(img_data), keep_prob: 1.0}) max1 = 0 max2 = 0 max3 = 0 max1_index = 0 max2_index = 0 max3_index = 0 for j in range(10): if result[0][j] > max1: max1 = result[0][j] max1_index = j continue if (result[0][j]>max2) and (result[0][j]<=max1): max2 = result[0][j] max2_index = j continue if (result[0][j]>max3) and (result[0][j]<=max2): max3 = result[0][j] max3_index = j continue license_num.append(max1_index) print ("softmax结果前三位概率:%s: %.2f%% %s: %.2f%% %s: %.2f%%" % (max1_index,max1*100, max2_index,max2*100, max3_index,max3*100)) print ("车牌号为: %s" % license_num)
PS:支持省份简称和字母的车牌识别程序详见《TensorFlow车牌识别完整版(含车牌数据集)》
- 基于MNIST数据集实现车牌识别--初步演示版
- tensorflow实现MNIST数据集识别
- 利用tensorflow一步一步实现基于MNIST 数据集进行手写数字识别的神经网络,逻辑回归
- 基于EasyPR的车牌识别android实现
- 识别MNIST数据集:用Python实现神经网络
- TensorFlow车牌识别完整版(含车牌数据集)
- 第一个network的代码实现基于mnist数据集
- tensorflow实现车牌识别
- 手写字体识别 --MNIST数据集
- 经典手写数字mnist数据集识别
- tensorflow mnist数据集手写字识别
- tensorflow基于softmax模型实现手写体MNIST数字集识别
- 基于RNN的mnist数字识别神经网络实现
- Deep Learning---基于windows版caffe训练mnist数据集
- 识别MNIST数据集之(二):用Python实现神经网络
- TensorFlow学习笔记(3)--实现Softmax逻辑回归识别手写数字(MNIST数据集)
- [Keras实战] 构建LeNet实现手写数字识别(mnist数据集)
- 81、Tensorflow实现LeNet-5模型,多层卷积层,识别mnist数据集
- C#中的类
- 批处理bat 延时启动的方法
- 三种更改hostname的方法之间的对比
- HDU 3333 Turing Tree(线段树)
- linux下安装运行LoadrGenerator
- 基于MNIST数据集实现车牌识别--初步演示版
- maximal-rectangle
- 堆排序Heap sort
- 数值排序问题-shell
- 使用Maven部署构件至私服
- 什么是架构师
- libcurl中的回调函数
- 2017 ACM-ICPC 亚洲区(南宁赛区)网络赛 A Weather Patterns(阅读理解)
- spring mvc表单中集合类型的参数绑定,含集合下标动态改变