论文阅读:A Discriminative Feature Learning Approach for Deep Face Recognition

来源:互联网 发布:openstack的网络配置 编辑:程序博客网 时间:2024/05/16 16:09

这篇文章为了最小化类内差距,在softmax loss上添加一项center loss,即每个样本和它对应的类别的特征向量的中心的距离。

概述

在通常的物体检测、场景分类和动作识别中,测试样本的类别事先是知道的,这种问题叫闭集问题(close-set problem)。预测出来的label对算法性能有决定性的影响,直接应用softmax loss就可以处理这类问题。这种情况下,深度神经网络中最后的全连接层就是一个线性分类器。而学习到的深层特征倾向于是可分的。
但是对人脸识别来说,特征不仅要求可分,同时还应该是判别性的。人脸识别中,测试集中的人可能在训练集中是没有出现过的,所以特征需要有判别性和泛化能力。这种判别性特征要求它类内的分布紧凑,类间相互分隔。
softmax loss的缺点是它只会使得类间特征分离,并不会使属于同一类的特征积聚。这样的特征对于人脸识别来说不够有效。

Center loss

每个类学习一个特征中心。训练的时候,同时更新这个中心并最小化特征与类中心的距离。CNN用softmax loss和center loss联合训练,然后用一个超参数来平衡这两个监督信号。其中:

  • softmax loss最大化类间差异
  • center loss最小化类内差异

Center loss函数:

Lc=12i=1m||xiCyi||22

其中,xi是样本i的特征, Cyi是第yi类的特征中心。
总的loss函数就是softmax loss和Center loss加权:
L=Ls+λLc

在每个mini batch的过程中,更新对应类的特征中心,有些类别的特征中心是没有更新的.
一些错误的样本可能会引起扰动,所以用α控制center的学习率:
Ct+1j=CtjαΔCtj

这里写图片描述

在MNIST上的测试
这里写图片描述

contrastive loss

  • Hadsell R, Chopra S, LeCun Y. Dimensionality reduction by learning an invariant mapping[C]//2006 IEEE Computer Society Conference on Computer Vision and Pattern Recognition (CVPR’06). IEEE, 2006, 2: 1735-1742.
  • Sun Y, Chen Y, Wang X, et al. Deep learning face representation by joint identification-verification[C]//Advances in Neural Information Processing Systems. 2014: 1988-1996.

triplet loss

  • Schroff F, Kalenichenko D, Philbin J. Facenet: A unified embedding for face recognition and clustering[C]//Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition. 2015: 815-823.
0 0
原创粉丝点击