SVD在LSA中的应用
来源:互联网 发布:淘宝卖家费用 编辑:程序博客网 时间:2024/05/20 23:31
本文的思路是先浅显解释一下SVD和LSA;其次讲一下矩阵分解,其中包括方阵的分解和对称方阵的分解;再次给出奇异值分解的理论;最后给出LSA理论及SVD在LSA中的降维作用。
首先说一下SVD和LSA语义:SVD中文称奇异值分解;LSA称为隐含语义分析;在LSA中用到SVD来实现降维过程。LSA简单来说就是一个词语在不同的主题中的阐释。
矩阵分解:
(一)、方阵S的分解
U的列是S的特征向量;Λ对角线上的值是S的特征值,按从大到小排列。
(二)、对称方阵S的分解
Q的列是S的单位正交向量;Λ同上;(这是因为正交的原因)
奇异值分解:
以上是方阵的分解,但是在LSA中,我们是要对Term-Document矩阵进行分解,这个矩阵不是方阵。
奇异值分解公式:(假设r是C矩阵的秩)
U的列为CCT的正交特征向量;V的列为CTC的正交特征向量;CCT和CTC的特征值相同,为…,,,按从大到小排列,其余位置为0,称为矩阵C的奇异值。
注:
LSA:
LSA中,首先用低阶近似来用一个低维的矩阵来表示一个高维的矩阵,然后用F-范数来衡量两矩阵之差。
对Cmxn (其秩为r),我们希望找到mxn矩阵Ck,其秩不大于k,X=C-Ck,X的F-范数为:.
当k远小于r时,称Ck为C的低阶近似,其中X两矩阵之差的F范数要尽可能小。
SVD在降维应用过程中的步骤:
1. 对C奇异值分解:
2. 构造,它是将Σ的第k+1行至m行设为0,也就是把Σ的最小的r-k个奇异值设为0
3. 计算Ck,其中
总结:
特征值数值的大小对矩阵-向量相乘影响的大小成正比,而奇异值和特征值也是正比关系。故LSA的基本思路是:LSA希望通过降低传统向量空间的维度来去除空间中的“噪音”,而降维可以通过SVD实现,因此首先对Term-Document矩阵进行SVD分解,然后降维并构造语义空间。
- SVD在LSA中的应用
- SVD在推荐系统中的应用
- SVD在推荐系统中的应用
- SVD分解在文本分类中的应用
- SVD在推荐系统中的应用
- SVD在推荐系统中的应用
- SVD在推荐系统中的应用
- SVD在推荐系统中的应用
- SVD在推荐系统中的应用
- SVD在推荐系统中的应用
- SVD在推荐系统中的应用
- SVD在推荐系统中的应用
- SVD在推荐系统中的应用
- SVD在推荐系统中的应用
- SVD在推荐系统中的应用
- SVD在推荐系统中的应用
- SVD在推荐系统中的应用
- SVD在推荐系统中的应用【推荐】
- Scala笔记之 样本类和模式匹配
- bootstrap 基础知识学习(列表+表格)
- poj 3169 Layout 差分约束
- Maven相关
- sftp上传文件能用到的简单命令
- SVD在LSA中的应用
- c++语言常用转义序列符号
- HDU 5280 Senior's Array 最大区间和
- git使用
- MQX驱动
- Mongodb开启与关闭
- EL表达式 (详解)
- 剑指off-递归求1到n的和
- 颜色匹配