Near Duplicate Image Detection

来源:互联网 发布:淘宝会员有什么好处 编辑:程序博客网 时间:2024/05/23 12:20

O. Chum, J. Philbin, A. Zisserman, Near Duplicate Image Detection: min-Hash and tf-idf Weighting, British Machine Vision Conference, 2008.

这篇论文主要是提供了一种修改后的minhash方法去做图像的邻近重复检测。

我对论文中提出的weighted histogram intersection方法做了初步的实现。

并且在一些数据集上作出了结果。

大体思路如下:

  1. 对所有图像提取sift特征,并进行聚类。
  2. 得到所有图像的visual words表示。
  3. 计算每一个图像的idf weight(反文档权重)。
  4. 生成N个在聚类中心上的hash函数。
  5. 根据哈希函数得到每一张图片的minhash。
  6. 通过比较minhash来计算图片之间的相似度。

前两步是几乎所有检索方法必经的过程,因此从略。

反文档权重的计算是作为生成hash函数时的某个参数,这一点下面详述:

minhash是一种对集合相似度的高效的近似计算,标准的minhash是对所有words生成一个[0,1]之间的随机哈希函数值,对于每一张图片,该图片所有words中对应的最小哈希函数值就是该图片的minhash。通过计算所有图片的minhash,我们可以对图片进行两两比较,两张图片的相似度为两张图片在N个哈希函数上minhash相等的次数/N,即sim = k / N. k := 两张图片有k个对应哈希函数的minhash相等。

这篇文章中的minhash经过了修正。

下面主要介绍该论文中minhash的生成策略:

具体主要表现为加上了对words出现频数的考虑:

记一个word Wi在所有图片中出现的最高次数为yi,则我们生成哈希函数的时候将Wi视作为yi个不同的words,每个word的word weighting dw为1 - 该word的反文档频率(idf),于是该word的哈希函数值为-log(x) / dw,x为(0,1)上的随机值。

通过这种方法可以生成所有哈希函数。

我在columbia数据集上做了简单的测试,采用192个哈希函数,分成64组,每一组3个。
最后的结果是true positive 很高,true negativve也很高。

后来又在oxbuild上做了测试。结果AP只有略小于20%.

一开始认为是 哈希函数数量太少,后来知道minhash相似度计算之后只是得到了一个估计范围,需要对相似度大于一定值的图片进行进一步检索。等有时间再改进。

原创粉丝点击