[深度学习论文笔记][ECCV 16]Embedding Deep Metric for Person Re-identication A Study Against Large Variations

来源:互联网 发布:济宁网络问政平台登录 编辑:程序博客网 时间:2024/04/25 14:11

[ECCV 16]Embedding Deep Metric for Person Re-identication A Study Against Large Variations

Hailin Shi, Yang Yang, Xiangyu Zhu, Shengcai Liao, Zhen Lei, Weishi Zheng, Stan Z. Li

from NLPR, CAS-IA and SYU

paper link

Main Points:

该文章在triplet loss的基础上做了两点改进,并将改进后的loss function应用在了person re-identification任务中:
1. 在triplet loss基础上改进了正样本的选取方式;
2. 修改了计算特征距离时的距离函数。

1 Moderate Positive Mining

流形学习的一些研究显示,在流形邻域上使用欧氏距离可以视作一种合理的近似。但是在距离较远的情况下使用欧氏距离则不太合适,使用马氏距离(Mahalanobios distance)更好。所以在基于欧氏距离挑选hardest positive pair的时候,应该限定选取的范围在anchor样本的local range中。这样得到的正样本对被叫作moderate positive pairs。

本文的作法是,给定一个anchor样本的特征:
1. 使用欧氏距离找到该样本的hardest negative样本,即距离最近的负样本;
2. 找到一个hardest positive样本,即距离最远的正样本,同时该正样本的距离不应超过已经找到的最难负样本离anchor的距离。

这个过程可以表示为:

image

2 Weight Constraint for Deep Metric Learning

在计算正负样本对特征距离的时候,使用马氏距离优于使用欧氏距离。与直接将特征向量作欧氏距离不同,本文使用了如下图所示的方式计算马氏距离,作者使用了一个学习得到的权重矩阵(没有使用非线性函数)来代替马氏距离中的协方差矩阵:

image1

在训练过程中,作者对权重矩阵W加以正则使用的是Frobenius范数:

L^=L+λ2||WWTI||2F

Experimental Results

实验结果表明,同时使用这两个改进能够让文中提出的模型取得较好的性能。但是仍有不完整的地方:
1. 对于moderate positive mining,作者只比较了no mining, only negative和只使用softmax的情况,并不清楚该改进与随机选取positive pair或者使用hardest positive pair孰优孰劣;
2. 对于修改距离公式,文章仅仅分析了对权重矩阵W进行不同程度正则化带来的效果。使用马氏距离是不是比使用欧氏距离好仍不太清楚。

0 0