稀疏表示+子空间学习 (ICCV2011)
来源:互联网 发布:mac装linux虚拟机 编辑:程序博客网 时间:2024/05/16 09:40
http://blog.csdn.net/yihaizhiyan/article/details/7633658
解读文献:L. Zhang, P. Zhu, Q. Hu and D. Zhang, “A Linear Subspace Learning Approach via Sparse Coding,” in ICCV 2011.
网址:http://www4.comp.polyu.edu.hk/~cslzhang/ 做稀疏表示做的非常棒,很多发表的paper,都附有code,这魄力,不服不行哈~
线性子空间学习(Linear subspace learning,LSL),是通过线性投影,实现高维特征空间到低维空间的映射~
原有方法的缺点:大多的线性子空间学习,是直接从原始训练样本中统计学习子空间~ 但是在计算机视觉中,不同组件贡献也不同~~
现提出:利用稀疏表示和特征分组----->子空间学习~
首先从训练数据集中学习字典,以便用于稀疏的表示样本~
字典中的图像组件,分了两类,利于分辨和不利于分辨的部分 (More / Less discriminant part;MDP/LDP)~
无监督准则/有监督准则---->子空间学习。其中MDP保留,LDP抑制~
线性子空间学习方法,包括PCA、Eigenface、Fisher 线性判别式分析、基于LPP(locality preserving projection)流形学习、局部判别式嵌入(local discriminant embedding LDE)、图嵌入(graph embedding)。
根据是否利用训练样本的类别信息,可分为无监督的方法(PCA、LPP)和有监督的方法(FLDA、regularized LDA、LDE)。
线性子空间学习的方法,是通过一种确定的判别函数,学习理想的子空间或者投影方式~
例如:PCA是寻找一种不相关(即是正交的)的最佳子空间。FLDA是通过最大化(类间方差/类内方差)比率,学习最佳子空间~
高维数据一般处于低维流形上,所以LSL(例如LPP)可以通过保留原始高位数据的几何图,学习子空间~
线性子空间学习中样本方差矩阵计算的问题~ 不同组件有着不同的贡献~ 例如:噪声应有较小的贡献~ 因此把图像分解为两类不同的组件,一类贡献比较大,一类贡献比较小~
稀疏表示(用于压缩、字典学习、影像组件分析)
首先从样本集中基于patch的思想,学习一个字典D,有k个元素/组件。 然后把这k个组件分为两类(MDP和LDP)。然后确定投影矩阵,投影之,进行分类~
本文方法的框架图:
一、字典学习和稀疏编码~
数据集有m个样本x~ 每个样本都分为两个部分,MDP和LDP。
如果有一个测试样本y,则直接利用P进行投影,计算Py和PX的距离,利用NN进行分类之~
利用稀疏表示学习字典D。因为原始图像维数比较高,很难直接学习一个冗余字典。所以基于patch的思想进行学习之~
将每个训练样本分为q个重叠patch,最终由h=m*q的patch,其中m是样本数。
二、无监督子空间学习
在经过稀疏编码之后,每个图像被分解为k个特征图像。
三、有监督子空间学习
- 稀疏表示+子空间学习 (ICCV2011)
- 稀疏表示+子空间学习 (ICCV2011)
- 子空间稀疏表示
- 字典学习与稀疏表示(一)
- 稀疏表示+字典学习
- 稀疏表示+字典学习
- 稀疏表示 字典学习
- 稀疏表示学习
- 稀疏子空间聚类
- 稀疏表示(SRC)
- 稀疏表示与字典学习
- 稀疏表示学习_初识
- 稀疏表示与字典学习
- 字典学习与稀疏表示
- 稀疏表示(sparse representation)和字典学习(一)
- 稀疏表示(sparse representation)和字典学习
- 稀疏表示(sparse representation)和字典学习
- 从稀疏表示到低秩表示(一)
- POJ 2251 Dungeon Master
- 电驴提示“该内容尚未提供权利证明,无法提供下载”之解决办法详解
- MD(d)、MT(d)编译选项的区别
- 借生产者/消费者问题讲PV操作
- Android中的线程处理
- 稀疏表示+子空间学习 (ICCV2011)
- ostringstream用法
- Shell脚本语法-- if/then/elif/else/fi
- 转发ECCV2012感兴趣的文章列表
- 【怀念张国荣继续宠爱十年音乐会】下载
- jsp的九大内置对象?对应servlet中的java对象?
- Hibernate常用配置属性
- 恒和大风 - 机试题
- Windows下权限上下文