<deep learning>读书笔记(一)特征分解与坐标变换

来源:互联网 发布:aape淘宝正品店有哪些 编辑:程序博客网 时间:2024/03/29 04:35

2.8节讲的是特征分解,今天偶然被问到为什么特征分解是这个形式的


我们知道,Q是由A的特征向量组成的矩阵,在这里我们默认Q是正交矩阵,因此
正如题目所说,本文尝试从坐标变换的角度对特征分解进行解释,我们针对更原始的特征分解公式来讨论。
根据维基百科(https://zh.wikipedia.org/zh-cn/%E7%89%B9%E5%BE%81%E5%90%91%E9%87%8F)对特征分解的介绍,我们知道一个矩阵的特征向量是指在该矩阵对应的线性变换作用下,不改变方向的向量(反向也认为是不改变方向),特征向量对应的特征值指的是在其方向上进行的拉伸,注意是一个对角阵,第(i,i)个元素是第i个特征向量对应的特征值。

如果我们以Q的各列为基,那么A所代表的线性变换可以用代表的线性变换来表示,也就是说,是矩阵A代表的在基下的线性变换在基下的矩阵表示,而根据表示矩阵在不同基下的关系,
(http://math.fudan.edu.cn/gdsx/JIAOAN/%E7%BA%BF%E5%BD%A2%E5%8F%98%E6%8D%A2%E5%8F%8A%E5%85%B6%E7%9F%A9%E9%98%B5%E8%A1%A8%E7%A4%BA.pdf)
这已经很接近我们最后要的结果了,T是基到基的过渡矩阵,由过渡矩阵的计算,知道

这样,本文最开始的公式便得到了从坐标变换角度的解释。

更进一步的(这部分可能有点多余,不过当成是对矩阵理论的一些复习吧),既然每一个矩阵可以看成是一个坐标变换,那么我们把特征分解可以看成这样的一个过程:
对以为基的向量,先把它的坐标变换到以为基下去,得到的新的坐标应该是,然后我们对变换后的向量做线性变换,得到,最后将以为基变换到以为基,得到,这和直接对进行线性变换A是一样的,即有

以和线性变换在不同基下的坐标表示混淆的是,如果要把以为基的向量变换到为基,需要左乘上的过渡矩阵。
(http://www.cnblogs.com/ylqcnblogsylq/archive/2012/03/20/UnderstandingMatrix_BasesAndLinearTransformations.html)
0 0
原创粉丝点击