基于opencv和Tensorflow的实时手势识别(1)
来源:互联网 发布:下载淘宝网商城 编辑:程序博客网 时间:2024/06/06 14:04
临近毕业,找工作压力大,由于实验室的规定,研究生三年没有实习、没有大型项目经验。为了能在简历上增点彩,就准备自己搞点小东西,希望可以找到一个称心的工作。
第一个小demo是基于opencv和tensorflow的手势识别。
手势识别无论是在学术界还是工业界都已经很完美了,我这里也是从最简单的开始,一步一步来,防止自己自信心被打击。
基本计划是:
(1) 利用opencv录制需要的手势
(2)tensorflow搭建网络。并识别。
(3)可视化
(4)进行功能扩建
在这过程中,也会就中间碰到的一些问题,进行记录和解答。
那么就开始第一次计划。
利用opencv录制需要的手势
首先是安装需要的python包:
opencv 2.4
tensorflow 1.2
numpy
matplotlib
这些都可以很简单的利用pip安装,这里就不多说,网上教程一大把.
1 分析
需要调用摄像头进行录制(需要import cv2),然后框出我们需要的手势部分,并对框出的部分进行保存(需要 import os)。
再次过程中,我们需要保存的是二值化后的手势还是RGB手势,都需要我们去进行一个设置并预留出选项
# 导入需要的包import cv2import os# 设置一些常用的一些参数# 显示的字体 大小 初始位置等font = cv2.FONT_HERSHEY_SIMPLEX # 正常大小无衬线字体size = 0.5fx = 10fy = 355fh = 18# ROI框的显示位置x0 = 300y0 = 100# 录制的手势图片大小width = 300height = 300# 每个手势录制的样本数numofsamples = 300counter = 0 # 计数器,记录已经录制多少图片了# 存储地址和初始文件夹名称gesturename = ''path = ''# 标识符 bool类型用来表示某些需要不断变化的状态binaryMode = False # 是否将ROI显示为而至二值模式saveImg = False # 是否需要保存图片# 创建一个视频捕捉对象cap = cv2.VideoCapture(0) # 0为(笔记本)内置摄像头while(True): # 读帧 ret, frame = cap.read() # 返回的第一个参数为bool类型,用来表示是否读取到帧,如果为False说明已经读到最后一帧。frame为读取到的帧图片 # 图像翻转(如果没有这一步,视频显示的刚好和我们左右对称) frame = cv2.flip(frame, 2)# 第二个参数大于0:就表示是沿y轴翻转 # 显示ROI区域 # 调用函数 roi = binaryMask(frame, x0, y0, widht, height) # 显示提示语 cv2.putText(frame, "Option: ", (fx, fy), font, size, (0, 255, 0)) # 标注字体 cv2.putText(frame, "b-'Binary mode'/ r- 'RGB mode' ", (fx, fy + fh), font, size, (0, 255, 0)) # 标注字体 cv2.putText(frame, "p-'prediction mode'", (fx, fy + 2 * fh), font, size, (0, 255, 0)) # 标注字体 cv2.putText(frame, "s-'new gestures(twice)'", (fx, fy + 3 * fh), font, size, (0, 255, 0)) # 标注字体 cv2.putText(frame, "q-'quit'", (fx, fy + 4 * fh), font, size, (0, 255, 0)) # 标注字体 key = cv2.waitKey(1) & 0xFF # 等待键盘输入, if key == ord('b'): # 将ROI显示为二值模式 # binaryMode = not binaryMode binaryMode = True print("Binary Threshold filter active") elif key == ord('r'): # RGB模式 binaryMode = False if key == ord('i'): # 调整ROI框 y0 = y0 - 5 elif key == ord('k'): y0 = y0 + 5 elif key == ord('j'): x0 = x0 - 5 elif key == ord('l'): x0 = x0 + 5 if key == ord('p'): """调用模型开始预测""" print("using CNN to predict") if key == ord('q'): break if key == ord('s'): """录制新的手势(训练集)""" # saveImg = not saveImg # True if gesturename != '': # saveImg = True else: print("Enter a gesture group name first, by enter press 'n'! ") saveImg = False elif key == ord('n'): # 开始录制新手势 # 首先输入文件夹名字 gesturename = (input("enter the gesture folder name: ")) os.makedirs(gesturename) path = "./" + gesturename + "/" # 生成文件夹的地址 用来存放录制的手势 #展示处理之后的视频帧 cv2.imshow('frame', frame) if (binaryMode): cv2.imshow('ROI', roi) else: cv2.imshow("ROI", frame[y0:y0+height, x0:x0+widht])#最后记得释放捕捉cap.release()cv2.destroyAllWindows()
# 显示ROI为二值模式# 图像的二值化,就是将图像上的像素点的灰度值设置为0或255,# 也就是将整个图像呈现出明显的只有黑和白的视觉效果。# cv2.threshold 进行阈值化# 第一个参数 src 指原图像,原图像应该是灰度图# 第二个参数 x 指用来对像素值进行分类的阈值。# 第三个参数 y 指当像素值高于(有时是小于)阈值时应该被赋予的新的像素值# 有两个返回值 第一个返回值(得到图像的阈值) 二个返回值 也就是阈值处理后的图像def binaryMask(frame, x0, y0, width, height): # 显示方框 cv2.rectangle(frame, (x0, y0), (x0+widht, y0+height), (0, 255, 0)) #提取ROI像素 roi = frame[y0:y0+height, x0:x0+widht] # gray = cv2.cvtColor(roi, cv2.COLOR_BGR2GRAY) # 高斯模糊 斯模糊本质上是低通滤波器,输出图像的每个像素点是原图像上对应像素点与周围像素点的加权和 # 高斯矩阵的尺寸越大,标准差越大,处理过的图像模糊程度越大 blur = cv2.GaussianBlur(gray, (5, 5), 2) # 高斯模糊,给出高斯模糊矩阵和标准差 # 当同一幅图像上的不同部分的具有不同亮度时。这种情况下我们需要采用自适应阈值 # 参数: src 指原图像,原图像应该是灰度图。 x :指当像素值高于(有时是小于)阈值时应该被赋予的新的像素值 # adaptive_method 指: CV_ADAPTIVE_THRESH_MEAN_C 或 CV_ADAPTIVE_THRESH_GAUSSIAN_C # block_size 指用来计算阈值的象素邻域大小: 3, 5, 7, .. # param1 指与方法有关的参数 # th3 = cv2.adaptiveThreshold(blur, 255, cv2.ADAPTIVE_THRESH_GAUSSIAN_C, cv2.THRESH_BINARY_INV, 11, 2) ret, res = cv2.threshold(th3, 70, 255, cv2.THRESH_BINARY_INV+cv2.THRESH_OTSU) # ret还是bool类型 # 保存手势 if saveImg == True and binaryMode == True: saveROI(res) elif saveImg == True and binaryMode == False: saveROI(roi) """这里可以插入代码调用网络""" return res# 保存ROI图像def saveROI(img): global path, counter, gesturename, saveImg if counter > numofsamples: # 恢复到初始值,以便后面继续录制手势 saveImg = False gesturename = '' counter = 0 return counter += 1 name = gesturename + str(counter) # 给录制的手势命名 print("Saving img: ", name) cv2.imwrite(path+name+'.png', img) # 写入文件 time.sleep(0.05)
结果如下
录制的手势:
注:
录制手势时,背景尽量要干净!! 上面的图像背景过于杂乱,会对识别带来困难。
存放代码的github地址和总结会在最后放在一起。
阅读全文
1 0
- 基于opencv和Tensorflow的实时手势识别(1)
- 基于opencv和Tensorflow的实时手势识别(2)
- 基于opencv和Tensorflow的实时手势识别(3)
- 基于opencv 的手势识别(转)
- 基于opencv的手势识别
- 手势动态识别(基于opencv的简单实现)
- 基于Opencv的手势识别(QT 多线程)
- 基于Opencv/TensorFlow/mtcnn/Facenet的实时人脸检测/人脸识别
- 基于socket(TCP)和opencv的实时视频传输
- 基于SnapDragonBoard410C的手势识别
- 基于Aforge的手势识别之二~~~单点手势识别
- 基于Aforge的手势识别之三~~~多点手势识别
- 手势(Gesture)的增加和识别
- 基于QT和OpenCV的人脸检测识别系统(1)
- OpenCV模板匹配的方法识别手势
- 基于Kinect手势跟踪和识别
- 基于单目视觉的手势识别(本科毕业作品)
- opencv 手势识别
- postgresql 数据库 命令行常用操作
- bzoj4773: 负环
- C# 引用Org.BouncyCastle.Crypto 签名&解密
- Vue知识
- Day3(上) 一篇文章带你吃透ViewPager的三大用法及刷新问题
- 基于opencv和Tensorflow的实时手势识别(1)
- 进程不在,为何能收到PUSH?
- 为什么PHICH配置信息和下行带宽dl-bandwith必须在PBCH MIB上广播
- 设计模式7-装饰模式
- Linux下rar tar bz gz等命令压缩和解压详解 rar------------------------------------------------------------------
- centos7.2系统优化
- WordPress中的__()和_e()函数的作用
- 笔试分析题
- NCBI SRA数据库使用详解