数据增强(2)

来源:互联网 发布:手机淘宝卖家在哪登陆 编辑:程序博客网 时间:2024/06/05 03:55

数据增强(2)
上篇博客数据增强(1)中已经提到的一些方法,这篇是学习海康威视研究院2016ImageNet竞赛经验分享中的数据增强方式。
主要参考:https://zhuanlan.zhihu.com/p/23249000
http://www.cnblogs.com/arthurpro/p/6008609.html
数据增强对最后的识别性能和泛化能力都有着非常重要的影响。但一些增强方式也存在问题,如Crop,因为这种变化得到的区域有时并不包括真是目标区域,这样就会使得训练样本中出现错误标签。
1、数据增强

  1. 海康威视在Bolei2016年CVPR文章的启发下,提出了有监督的数据增强方式。
    首先,按照常规方法训练一个模型,然后用这个模型生成真值标签的热力图(Heat Map),这个Map指示了目标物体出现在不同位置的概率。
  2. 然后依照这个概率,在Map上随机选择一个位置,映射回原图,在原图那个位置附近去做Crop。

这里写图片描述
这里写图片描述
2、样本不平衡
场景数据有800万张,365个类别,各个类别的样本数据非常不平衡,很多类别的样本数达到了4万张,有的类别样本数还不到5千张。这样不均匀的样本分布,给模型训练带来了难题。
Label Shuffling平衡策略
在去年冠军土堆的Class-Aware Sampling方法的启发下,海康威视提出了Label Shuffling的类别平衡策略。具体步骤如下:

  1. 首先对原始图像列表按照标签顺序进行排序。
  2. 然后计算每个类别的样本数,并且得到样本最多的那个类别的样本数
  3. 根据这个最多的样本数,对每一类随机产生一个随机排列的列表
  4. 然后用每个类别的列表中的数对各自类别的样本数求余,得到一个索引值,从该类的图像中提取图像,生成该类的图像随机列表;
  5. 然后把所有类别的随机列表连在一起,做个Random Shuffling,得到最后的图像列表,用这个列表进行训练。

这里写图片描述

每个列表,到达最后一张图像的时候,然后再重新做一遍这些步骤,得到一个新的列表,接着训练。Label Shuffling方法的优点在于,只需要原始图像列表,所有操作都是在内存中在线完成,非常易于实现。‘

Label Smoothing策略
我们使用的另外一个方法是Label Smoothing,是今年Google的CVPR论文中提出来的方法。根据我们的混淆矩阵(Confusion Matrix)的分析,发现存在很多跨标签的相似性问题,这可能是由于标签模糊性带来的。所以,我们对混淆矩阵进行排序,得到跟每个标签最相近的4个标签,用它们来定义标签的先验分布,将传统的 one-hot标签,变成一个平滑过的soft标签。通过这种改进,我们发现可以从某种程度上降低过拟合问题。(+0.2~0.3)
这里写图片描述

1 0
原创粉丝点击