Feature Learning Based Deep Supervised Hashing with Pairwise Labels
来源:互联网 发布:php 新特性 好处 编辑:程序博客网 时间:2024/05/29 17:25
Feature Learning Based Deep Supervised Hashing with Pairwise Labels
现在实验室要求每周阅读一篇paper然后写成总结,作为一个博客的受益者,我也想写成博客的形式,将收获不局限于分享在小组内。但是,作为一个知识的传播者,如果传播错误的知识误导别人还不如不做。所以写每一篇博客都是忐忑不安,特别是国内一些厉害课题组的发表的paper,生怕误解作者的原意,还拿出来正儿八经的解读,贻笑大方。作为一个进阶的菜鸟,希望大家看到错误能够留言指正,我也要努力发表属于自己的paper。
Introduction
本篇是发表在IJCAI16上的一篇关于Deep Hash 的一篇Paper。下载地址
作者在本篇论文中提出了一种新的Deep Hash方法,DPSH(deep pairwise-supervised hashing),通过深度学习从pair-wise label中学习到图像的特征和hash code,并且在后面的实验中与其他方法比较,取得了较好的结果。
DPSH主要有以下几个方面:
- 通过CNN的conv层学习图像特征
- 使用网络的全连接层学习hash function
- 设计合理的loss function使pair-wise中label相似的话,hash code尽可能相似,也就是相似的label,hash code之间的海明距离比较小,不相似的label,hash code 之间海明距离比较大。
Notation And Problem Definition
在论文中,
假定有n个图片
hash function的目标是每一张图片学习到二进制码
Model and Learning
网络结构如Figure1 所示:
图 1
作者使用了CNN-F网络模型,上下两个CNN使用具有相同的网络结构,共享同样的权重。网络的具体参数如table 1所示:
Object Function
给定所有点的二进制码
上述公式中
考虑所有的S,作者提出了如下的最优化目标:
上述目标最小化,恰好等价于相似的图片之间的海明距离最小。由于变量是离散的,无法求导,所以需要进行进一步的处理,一般的方法就是松弛变量,把
上式中,
在CNN网络中:
Learning
在公式(3)中,目标函数主要有四个参数,
对于参数与
对于
因为mini-batch训练过程中,只得到了训练数据的hash code,对没有在训练集中的数据,直接采用公式(8)得到hash code。
整个算法的过程如图2所示:
图 2
Experiment
作者实验中主要使用了两个数据集:
- CIFAR-10 60000张图片,32*32大小。总共10类,每类共有图片6000张。
- NUS-WIDE 270000张图片,总共81类,每张图片有多标签,作者使用了21类,每类至少5000张图片。
对手工特征,CIFAR-10提取了500维的gist特征,NUS-WIDE提取了1134维的混合特征。在deep hash 方法中,作者将原始的图片resize到224*224作为网络的输入。
对CIFAR-10数据集,作者每类选取100张图片作为测试集,监督的方法,每类选取500张图片作为训练集,无监督的方法其他的图片作为训练集。在NUS-WIDE数据集中,作者从21从常用的label中每类100张图片作为测试集,监督的方法每类选取500张图片作为训练集。和之前的方法相比,实验结果如下图3所示:
图 3
DPSH0是HPSH的一种版本,在学习过程中不更新参数的版本。
超参数
图 4
Conclusion
与其他的deep hash相比,都是使用了CNN的conv层获取图像的特征,使用全连接层获取hash function。作者设计了新的目标函数的优化方法和参数更新的过程,并通过实验得到了更优的结果。
- Feature Learning based Deep Supervised Hashing with Pairwise Labels
- Feature Learning Based Deep Supervised Hashing with Pairwise Labels
- caffe添加Layer,复现Feature Learning based Deep Supervidsed Hashing with PL
- Supervised Deep Learning with Auxiliary Networks
- Supervised Hashing with Kernels
- KSH(Supervised Hashing with Kernels)
- Supervised Learning of Semantics-Preserving Hashing via Deep Neural Networks for Large-Scale Image S
- Simultaneous Feature Learning and Hash Coding with Deep Neural Networks
- Learning Policies for Adaptive Tracking with Deep Feature Cascades
- Automatic Feature Learning for Glaucoma Detection Based on Deep Learning论文理解
- Deep Reinforcement Learning-based Image Captioning with Embedding Reward
- Deep Reinforcement Learning-based Image Captioning with Embedding Reward
- End-to-end LSTM-based dialog control optimized with supervised and reinforcement learning
- 图像检索--Deep Supervised Hashing for Fast Image Retrieval
- Bit-Scalable Deep Hashing with Regularized Similarity Learning for Image Retrieval and Person Re-ide
- Supervised Hashing for Image Retrieval via Image Representation Learning
- Supervised Hashing for Image Retrieval via Image Representation Learning
- Semi-Supervised Learning with Generative Adversarial Networks
- 使用Node.js+Socket.IO搭建WebSocket实时应用
- spring+dubbo+java8 Component-scan异常记录(2)
- FragmentTabHost切换Fragment时避免UI重新加载
- css水平垂直居中
- Android Creating Custom Views
- Feature Learning Based Deep Supervised Hashing with Pairwise Labels
- LabVIEW使用入门指导
- SDK manager更新失败
- 我的spark学习之路(三):利用spark做回归分析
- Spinner的简单使用
- RecyclerView的上拉自动加载
- 新浪微博授权demo
- 监听器常见应用
- FZU 2133 kk排座位