data augmentation

来源:互联网 发布:淘宝违规处理怎么处理 编辑:程序博客网 时间:2024/06/04 17:47

一般比较有效的有random crop, random mirror, random resize (scale augmentation)。以上三种实现简单而且有效,基本能复现resnet的结果。至于color augmentation, random rotation, aspect ratio augmentation感觉效果几乎没有,尤其是color augmentation,貌似还有一点点反作用
看到这段话的时候微微崩溃,因为已经试过了简单的da,正准备尝试color aug

不过还是要总结下,
来自知乎

在CS231N的课程上看到过PCA对RGB降维的操作,感觉很高级,就查了一波。
PCA Jittering最早是由Alex在他2012年赢得的ImageNet竞赛的那篇NIPS中提出的,首先按照RGB三个颜色通道计算均值和标准差,对网络的输入数据进行规范化,随后我们在整个训练集上计算了协方差矩阵,进行特征分解,得到特征向量和特征值,用来做PCA Jittering。

在训练集像素值的RGB颜色空间进行PCA, 得到RGB空间的3个主方向向量,3个特征值, p1, p2, p3, λ1, λ2, λ3. 对每幅图像的每个像素Ixy=[IRxy,IGxy,IBxy]T进行加上如下的变化:

[p1,p2,p3][α1λ1,α2λ2,α3λ3]T

其中:αi是满足均值为0,方差为0.1的随机变量.
做完之后
这里写图片描述

AlexNet 训练的时候,在data augmentation上处理的很好:

  • 随机crop。训练时候,对于256*256的图片进行随机crop到224*224,然后允许水平翻转,那么相当与将样本倍增到((256-224)^2)*2=2048。
  • 测试时候,对左上、右上、左下、右下、中间做了5次crop,然后翻转,共10个crop,之后对结果求平均。作者说,不做随机crop,大网络基本都过拟合(under substantial overfitting)。
  • 对RGB空间做PCA,然后对主成分做一个(0, 0.1)的高斯扰动。结果让错误率又下降了1%。

不知道为什么我用了这段代码:

# 随后我们在整个训练集上计算了协方差矩阵,进行特征分解,得到特征向量和特征值,用来做PCA Jittering。def PCA_Jittering(path):      img_list = os.listdir(path)      img_num = len(img_list)      for i in range(img_num):          img_path = os.path.join(path, img_list[i])          img = Image.open(img_path)          plt.imshow(img)          plt.show()        img = np.asanyarray(img, dtype = 'float32')          img = img / 255.0          img_size = img.size / 3         print(img.size)        img1 = img.reshape(img_size, 3)          img1 = np.transpose(img1)          img_cov = np.cov([img1[0], img1[1], img1[2]])          lamda, p = np.linalg.eig(img_cov)  #计算矩阵特征向量        p = np.transpose(p)          alpha1 = random.normalvariate(0,0.3)  #生成正态分布的随机数        alpha2 = random.normalvariate(0,0.3)          alpha3 = random.normalvariate(0,0.3)          v = np.transpose((alpha1*lamda[0], alpha2*lamda[1], alpha3*lamda[2])) #加入扰动          add_num = np.dot(p,v)          img2 = np.array([img[:,:,0]+add_num[0], img[:,:,1]+add_num[1], img[:,:,2]+add_num[2]])          img2 = np.swapaxes(img2,0,2)          img2 = np.swapaxes(img2,0,1)          save_name = 'pre'+str(i)+'.png'          save_path = os.path.join(path, save_name)  #         misc.imsave(save_path,img2)          plt.imshow(img2)          plt.show()

效果不是很好:
这里写图片描述

下午再看一遍代码,感觉找到了原因。我在做这个操作的时候没有事先对图片做规范化。上面就/255 不过实际效果也就那样吧,color变换并不能带来太大的提升。

一些color变换参考了下面的源码。torch不会用,感慨下现在机器学习框架多到爆炸,真是被keras惯的越来越懒。
https://github.com/facebook/fb.resnet.torch