Fast Visual Tracking via Dense Spatio-Temporal Context Learning 论文笔记
来源:互联网 发布:正的网络外部性 编辑:程序博客网 时间:2024/06/06 07:33
转自:http://www.cnblogs.com/hanhuili/p/4281077.html
原文再续,书接一上回。话说上一次我们讲到了Correlation Filter类 tracker的老祖宗MOSSE,那么接下来就让我们看看如何对其进一步地优化改良。这次要谈的论文是我们国内Zhang Kaihua团队在ECCV 2014上发表的STC tracker:Fast Visual Tracking via Dense Spatio-Temporal Context Learning。相信做跟踪的人对他们团队应该是比较熟悉的了,如Compressive Tracking就是他们的杰作之一。今天要讲的这篇论文的Matlab源代码已经放出了,链接如下:
http://www4.comp.polyu.edu.hk/~cslzhang/STC/STC.htm
首先来看看他们的跟踪算法示意图:
看到更新方式,快速傅里叶变换什么的是不是很眼熟?没错,这篇论文其实与MOSSE方法基本是一致的,那么其创新点在哪了?笔者觉得,其创新点在于点,一是以密集时空环境上下文Dense Spatio-Temporal Context作为卖点;二是以概率论的方式包装了CF类方法;三是在模板更新的时候把尺度变换也考虑了进去。
那么什么是密集的时空上下文呢?其最朴素的思想可以用下面这个图来表达:在跟踪的过程中,由于目标外观变换以及遮挡等原因的影响,仅仅跟踪目标本身的话比较困难,但如果把目标周围区域也考虑进去(空间上下文),那么能够在一定程度降低跟踪失败的风险。以图中的例子来说,就是假如仅仅考虑目标本身(黄色框),那么在发生遮挡的时候,就难以实现跟踪,但是如果把周围的像素也考虑进去(红色框),那么就可以借助周围环境来确定目标所在。这是一帧的情况,假如考虑多帧情况的话,就对应产生了时空上下文。那么dense的说法从何而来?这一点我们后面再解释。
主要思想已经有了,下面我们来看如何用概率论进行理论支持。假设
然后定义
式(2)分为两项,左项
然后,因为在第一帧的时候,目标的位置是已知的,那么这时候就可以构造一个confident map,使其满足距离目标越近可能性越高的性质。作者定义confident map的具体值为如公式(3)所示:
其中
先看
其就是目标框附近的图像灰度值的高斯加权和(换成其它特征也可以,后面另有一篇论文会谈到)。然后
文中作者还强调了
另外,根据卷积
所以(5)式其实就是一卷积(
与MOSSE不同的是,STC在训练模板、即计算
假设从
由
然后,从
假设从
又因为
因此就有
剩下的就是一些技巧了,比如用滑动窗口取
- Fast Visual Tracking via Dense Spatio-Temporal Context Learning 论文笔记
- STC Fast Tracking via Spatio-Temporal Context Learning 论文笔记
- Fast Visual Tracking via Dense Spatio-Temporal Context Lear
- 阅读笔记1:fast tracking via spatio-temporal context learning
- Correlation Filter in Visual Tracking系列二:Fast Visual Tracking via Dense Spatio-Temporal Context Lear
- Correlation Filter in Visual Tracking系列二:Fast Visual Tracking via Dense Spatio-Temporal Context Lear
- Correlation Filter in Visual Tracking系列二:Fast Visual Tracking via Dense Spatio-Temporal Context Lear
- <Fast Tracking via Spatio-Temporal Context Learning> 阅读和算法使用总结
- Fast Tracking via Spatio-Temporal Context Learning(时空上下文视觉跟踪)
- 《Fast Traking via Spatio-Temporal Context Learning》要点整理与代码实现之一
- 《Fast Traking via Spatio-Temporal Context Learning》要点整理与代码实现之二
- 基于Fast Trackingvia Spatio-Temporal Context Learning目标跟踪所感
- 【论文笔记】Mining Association Rules in Spatio-Temporal Data
- 论文笔记:Evaluation of local spatio-temporal features for action recognition
- Real-Time Video Super-Resolution with Spatio-Temporal Networks and Motion Compensation 论文笔记
- 论文笔记TLD:Tracking-Learning-Detection
- 论文笔记《Learning Multi-Domain Convolutional Neural Networks for Visual Tracking》
- 论文阅读笔记-learning multi-domain convolutional neural networks for visual tracking
- 总结下在开发项目中禁用按钮的一些小方法
- wordexp函数的使用
- Hibernate 的三种查询方式:HQL、Criteria、Sql
- Tensorflow 训练结果为 NAN
- webpack资料
- Fast Visual Tracking via Dense Spatio-Temporal Context Learning 论文笔记
- OAF 系列教程 五 更新UPDATE
- Android视频监控实现(三)
- 简单的冒泡排序、插入排序、查找排序算法
- centos7 部署seafile注意事项
- createSQLQuery 查询数据库类型为char的字段时
- RGB颜色查询对照表
- tcpdump 抓包常用 命令
- Ajax编码GBK乱码解决