视觉学习中典型的矩阵分解方式总结

来源:互联网 发布:淘宝链接被删除 编辑:程序博客网 时间:2024/06/05 02:31

1.QR分解

QR分解最主要的用法是用用来解线性最小二乘的问题,当A是非奇异的实方阵(满秩)A,实方阵A能够表示成一个正交矩阵Q与上三角矩阵R的积,QR分解的实际计算有很多方法,例如 Givens 旋转、Householder 变换,以及 Gram-Schmidt正交化等等。

A=Q*R

http://blog.csdn.net/bitcarmanlee/article/details/52662518

http://blog.sina.com.cn/s/blog_3f41287a0101ke2s.html

2.SVD奇异值分解

奇异值分解和特征值分解在视觉导航中经常被使用,两者的目的都是一样,就是提取出一个矩阵最重要的特征。先谈谈特征值分解,然后引出奇异值分解

(1)      特征值分解(正交对角分解)

设有一方阵A,有数λ和非零向量v,是的下面的式子成立,则称数λ是方阵A的特征值,v是矩阵A对应特征值λ的特征向量。


特征值分解是将一个矩阵分解成下面的形式,其中Q是这个矩阵A的特征向量组成的矩阵(是一个正交阵),Σ是一个对角阵,每一个对角线上的元素就是一个特征值

 

(2)      SVD分解

特征值分解是一个提取矩阵特征很不错的方法,但是它只是对方阵而言的,在现实的世界中,我们看到的大部分矩阵都不是方阵。我们怎样才能描述这样普通的矩阵呢的重要特征呢?奇异值分解可以用来干这个事情,奇异值分解是一个能适用于任意的矩阵的一种分解的方法:


假设A是一个N * M的矩阵,那么得到的U是一个N * N的方阵(里面的向量是正交的,U里面的向量称为左奇异向量),Σ是一个N * M的矩阵(只有对角线的元素不为零0,对角线上的元素称为奇异值),V’(V的转置)是一个M * M的矩阵,(里面的向量也是正交的,V里面的向量称为右奇异向量)。

下面引出奇异值和特征值得对应关系,首先是由一般的矩阵(不一定是方阵)构造一个方阵,方法是乘以自己的转置,就可以得到和上面的特征值相同的表达式:



这里面就可以由λ和v推到SVD的U,V和Σ,这里求出的v就是上面的右奇异向量V,U和Σ由下面的式子求得:


这里的σ就是上面说的奇异值,u就是上面说的左奇异向量。

参考:http://www.cnblogs.com/LeftNotEasy/archive/2011/01/19/svd-and-applications.html


 

 

 

 

 

 

 


 

 

 

 

 

 

 


0 0
原创粉丝点击