基于tensorflow的人脸识别技术(facenet)的测试
来源:互联网 发布:医生在线回答软件 编辑:程序博客网 时间:2024/05/29 10:10
人脸识别的应用非常广泛,而且进展特别快。如LFW的评测结果上已经都有快接近99.9%的。
Uni-Ubi600.9900 ± 0.0032FaceNet620.9963 ± 0.0009Baidu640.9977 ± 0.0006AuthenMetric650.9977 ± 0.0009MMDFR670.9902 ± 0.0019CW-DNA-1700.9950 ± 0.0022Faceall710.9967 ± 0.0007JustMeTalk720.9887 ± 0.0016Facevisa740.9955 ± 0.0014pose+shape+expression augmentation750.9807 ± 0.0060ColorReco760.9940 ± 0.0022Asaphus770.9815 ± 0.0039Daream780.9968 ± 0.0009Dahua-FaceImage800.9978 ± 0.0007Easen Electron810.9978 ± 0.0006Skytop Gaia820.9630 ± 0.0023CNN-3DMM estimation830.9235 ± 0.0129Samtech Facequest840.9971 ± 0.0018XYZ Robot870.9895 ± 0.0020THU CV-AI Lab880.9973 ± 0.0008dlib900.9938 ± 0.0027Aureus910.9920 ± 0.0030YouTu Lab, Tencent630.9980 ± 0.0023Orion Star920.9965 ± 0.0032Yuntu WiseSight930.9943 ± 0.0045PingAn AI Lab890.9980 ± 0.0016Turing123940.9940 ± 0.0040Hisign950.9968 ± 0.0030VisionLabs V2.0380.9978 ± 0.0007Deepmark960.9923 ± 0.0016Force Infosystems970.9973 ± 0.0028ReadSense980.9982 ± 0.0007
在上述模型中,有许多是商业公司的排名,所以呢,基本上很少有开源的东西。此处只对谷歌的facenet进行测试。
FaceNet的架构如下所示:
从上面可以看出,没有使用softmax层,而直接利用L2层正则化输出,获取其图像表示,即特征抽象层。而深度学习的框架可以使用现有的成熟模型,如tensorflow slim中的每一种模型。
而最后一个Triplet Loss则是采用了三元组的损失函数。其代码如下所示
def triplet_loss(anchor, positive, negative, alpha): """Calculate the triplet loss according to the FaceNet paper Args: anchor: the embeddings for the anchor images. positive: the embeddings for the positive images. negative: the embeddings for the negative images. Returns: the triplet loss according to the FaceNet paper as a float tensor. """ with tf.variable_scope('triplet_loss'): pos_dist = tf.reduce_sum(tf.square(tf.subtract(anchor, positive)), 1) neg_dist = tf.reduce_sum(tf.square(tf.subtract(anchor, negative)), 1) basic_loss = tf.add(tf.subtract(pos_dist,neg_dist), alpha) loss = tf.reduce_mean(tf.maximum(basic_loss, 0.0), 0) return loss
从上面代码可以看出,三元组其实就是三个样例,如(anchor, pos, neg),利用距离关系来判断。即在尽可能多的三元组中,使得anchor和pos正例的距离,小于anchor和neg负例的距离。
其学习优化如下图所示:
测试:(代码见:https://github.com/davidsandberg/facenet)
由于facenet无需限制人脸对齐,但是代码中提供了MTCNN的对齐,而且在LFW评分中也发现经过对齐的分数能够提高一个档次。
利用提供的代码,在LFW上进行EVAL,发现其精度高达99.2%
当然,还有更高的。
另外,程序中还提供了进行两张图片距离的比较的代码,进行调试,结果如下:
阅读全文
1 0
- 基于tensorflow的人脸识别技术(facenet)的测试
- 基于Opencv/TensorFlow/mtcnn/Facenet的实时人脸检测/人脸识别
- tensorflow 实现人脸识别(facenet)
- FaceNet--Google的人脸识别
- FaceNet--Google的人脸识别
- FaceNet--Google的人脸识别
- FaceNet--Google的人脸识别
- FaceNet--Google的人脸识别
- FaceNet--Google的人脸识别
- FaceNet--Google的人脸识别
- 【论文笔记】FaceNet--Google的人脸识别
- DeepFace--Facebook的人脸识别&& FaceNet--Google的人脸识别
- 人脸识别之FaceNet
- 基于Tensorflow的VCTK语音识别例子测试
- 用FaceNet的模型计算人脸之间距离(TensorFlow)
- 基于 HTML5 的人脸识别技术
- 基于 HTML5 的人脸识别技术
- 基于 HTML5 的人脸识别技术
- LeetCode 9. Palindrome Number
- String的一些思考
- mysql批量update语句优化
- sudo 环境变量的传递
- HDU 4427 Math Magic【DP+滚动数组】
- 基于tensorflow的人脸识别技术(facenet)的测试
- 强制类型转换时的异常处理_java与c++比较
- hadoop 2.8 hdfs 命令错误总结
- Android中继承AppCompatActivity后如何实现无标题全屏显示
- Centos 安装ClamAv 杀毒软件
- 聊天系统实战记录
- 有对象的程序猿都是怎么写代码的
- hdu 4430 枚举+二分 范围运算失误
- Python3.x中出现 "AttributeError: module 'urllib' has no attribute 'urlopen'" 的解决方法