机器学习笔记--线性代数
来源:互联网 发布:数据可视化图片 编辑:程序博客网 时间:2024/05/22 14:14
谈到线性代数,只知道什么矩阵啊,向量啊,啥特征值,特征分解啊之类,也就知道些公式怎么用,概念也已经有些许模糊了。这里慢慢整理,吸收吧,毕竟线性代数对于后续的机器学习算法的理解还是非常重要的。
1 线性方程组
1.1 线性方程组
其中
1.2 向量
仅含一列的矩阵称为列向量,简称向量.若n是正整数,
1.3 线性组合
- 给定
Rn 中向量ν1,ν2,⋯,νp 和标量c1,c2,⋯,cp ,向量y=c1ν1+c2ν2+⋯+cpνp
称为向量ν1,ν2,⋯,νp 以c1,c2,⋯,cp 为权的线性组合。 - 若
A 是m×n 矩阵,它的各列为a1,a2,⋯,an ,若x 是Rn 中的向量,则A 和x 的积,记为Ax ,就是A的各列以x中对应元素为权的线性组合,即:Ax=[a1a2⋯an]⎡⎣⎢⎢⎢⎢x1x2⋮xn⎤⎦⎥⎥⎥⎥=x1a1+x2a2+⋯+xnan
1.4 Span
- 若向量
ν1,ν2,⋯,νp 是Rn 中的向量,则ν1,ν2,⋯,νp 的所有线性组合所成的集合用记号Span{ν1,ν2,⋯,νp} 表示,称为由ν1,ν2,⋯,νp 所生成(张成)的Rn 的子集。 - 要判断向量
b 是否属于Span{ν1,ν2,⋯,νp} ,判断如下方程是否有解。x1ν1+x2ν2+⋯+xpνp=b Span{ν} 和Span{ν,u} 的集合意义,若Rn 是R3 ,那么前者是三维空间的一条直线,后者是三维空间一个平面。
1.5 线性变换
由
2 矩阵运算
2.1 矩阵乘法
看下例子比较容易理解
2.2 矩阵的乘幂:
若A是
2.3 矩阵的转置
用
2.4 矩阵的逆
实数3的乘法逆是
3−1 ,满足方程3⋅3−1=1 和3−1⋅3=1 。矩阵也需要类似两个方程都成立,一般
n×n 矩阵A可逆,存在AC=I且CA=I I=In 是n×n 的单位矩阵,若A可逆,逆是唯一的,于是有:AA−1=I且A−1A=I
一个例子:
2.5 LU分解
定义
如下所示:A=⎡⎣⎢⎢⎢⎢1∗∗∗01∗∗001∗0001⎤⎦⎥⎥⎥⎥⎡⎣⎢⎢⎢⎢◼000∗◼00∗∗00∗∗◼0∗∗∗0⎤⎦⎥⎥⎥⎥ A=LU ,其中L是m×m 下三角矩阵,U是一个等价的m×n 阶梯矩阵。当A=LU时,方程
Ax=b 可写成L(Ux)=b ,把Ux 写成y,求解:{Ly=bUx=y LU分解算法
偷个懒,不想写矩阵的公式了,太多了,就直接截个例子图吧,那些定义看着头疼,例子比较清晰
求矩阵的LU分解:
2.6 行列式
- 克拉默法则
看下例子,解如下方程组:{3x1−2x2=6−5x1+4x2=8
按照Ax=b 型,得如下:A=[3−5−24],A1(b)=[68−24],A2(b)=[3−568]
由于A的行列式为detA=2 ,根据克拉默法则解得:⎧⎩⎨⎪⎪x1=detA1(b)detA=24+162=20x2=detA2(b)detA=24+302=27
可以得出:xi=detAi(b)detA,i=1,2,...,n
3 向量空间
一个向量空间是由一些被称为向量的对象构成的非空集合
3.1 向量子空间
- 一个向量空间是由一个大的向量空间中适当的向量的子集所构成的。
- 列空间:
A 的各列的线性组合的集合,记作:ColA - 零子空间:都是零向量组成的集合,写成:
{0}
3.2 子空间的基
生成子空间的一个最小的有限集合就是基,
3.3向量的秩
矩阵
3.4 马尔科夫链
- 概率向量:一个具有非负分量且各分量的数值相加等于1的向量,如:
x0=[0.20.8] - 随机矩阵:各列向量为概率向量的方阵
- 马尔科夫链:一个概率向量序列
x0,x1,x2,⋯ 和一个随机矩阵P,使得x1=Px0,x2=Px1,x3=Px2,⋯ 可得一阶微分方程:xk+1=Pxk,k=0,1,2,⋯
4 特征向量与特征值
4.1 定义
A为
4.2 例子
若
故
4.3 三角矩阵特征值
三角矩阵的主对角线的元素是其特征值
由上述可知A的特征值为3,0,2;B的特征值为4,1。
4.4 应用
图像处理中的PCA方法,选取特征值最高的k个特征向量来表示一个矩阵,从而达到降维分析以及特征显示的方法,还有图像压缩的K-L变换。再比如很多人脸识别,数据流模式挖掘分析等方面。
知乎关于特征向量特征值的解释
5 正交性
5.1 内积
内积就是:
5.2 向量的长度(范数)
- 向量
v 的长度,也就是范数,是非负数∥v∥ ,定义为:∥v∥=v⋅v‾‾‾‾√=v21+v22+⋯+v2n‾‾‾‾‾‾‾‾‾‾‾‾‾‾‾‾√且∥v∥2=v⋅v - 假若
v 是R2 中的向量,∥v∥ 的值和平面到内原点v的线段的长度一直。 - L0范数:向量中非0的元素的个数
- L1范数:向量中各个元素绝对值之和,也有个美称叫“稀疏规则算子”
∥x∥1=|x1|+|x2|+⋯+|xn| - L2范数:
∥x∥2=(|x21|+|x22|+⋯+|x2n|)1/2
关于L0.L1.L2范数点击此更详细
5.3 Rn 空间中的距离
- 向量
u和v 的距离,记作dist(u,v)=∥u−v∥ - 距离的定义和欧几里得空间中点的距离公式一致,其中二维空间,
dist(u,v)=∥u−v∥=(u1−v1)2+(u2−v2)2‾‾‾‾‾‾‾‾‾‾‾‾‾‾‾‾‾‾‾‾‾√ - 三维空间:
dist(u,v)=∥u−v∥=(u1−v1)2+(u2−v2)2++(u3−v3)2‾‾‾‾‾‾‾‾‾‾‾‾‾‾‾‾‾‾‾‾‾‾‾‾‾‾‾‾‾‾‾‾‾‾√
5.4 正交性
如果
6 正交投影
若W是
Rn 的一个子空间,那么Rn 中每一个向量y 可以唯一表示y=ŷ +z
此处ŷ 属于W且z属于W⊥ ,实际上,如果{u1,u2,⋯,up} 是W的任意正交基,那么:ŷ =y⋅u1u1⋅u1u1+⋯+y⋅upup⋅upup 正交投影几何解释:
如下图R3 空间,y的正交投影就是y1+y2 的投影。
7 格拉姆-施密特法则
- 对
Rn 中子空间的一个基{x1,x2,⋯,xp} ,定义v1=x1 v2=x2−x2⋅v1v1⋅v1v1 ⋮ vp=xp−xp⋅v1v1⋅v1v1−⋯xp⋅vp−1vp−1⋅vp−1vp−1
那么{v1,v2,⋯,vp} 是W的一个正交基。 - 标准正交基:就是把正交基给单位化。
8 矩阵的QR分解
- 如果
m×n 矩阵A的列线性无关,那么A可以分解为A=QR,其中Q是一个m×n 矩阵,其列形成Col A的一个标准正交基,R是一个n×n 上三角可逆矩阵且对角线上的元素为正数。 - 举个例子偷个懒,截个图:
9 最小二乘
如果
看下知乎的解释:貌似还要结合概率的协方差,还没看到概率呢。
10 奇异值分解
通过一个例子来学习吧,偷懒截图了。求
点击这里讲得很好
总算断断续续把线性代数看了下,不过还是看得有些似懂非懂,等以后遇到了再继续看吧,不能一个问题死磕,把学习机器学习的劲头都搞没了,是不?主要还是了解概念,后续反正也会用python的数学库,加上机器学习的一些框架来玩。
- 线性代数,机器学习,笔记!!!
- 机器学习笔记--线性代数
- [心得]机器学习基础之线性代数笔记
- 机器学习笔记(三) 线性代数复习
- 机器学习中的线性代数
- 机器学习--线性代数基础
- 机器学习 数学知识 线性代数
- 机器学习线性代数介绍
- 【机器学习】coursera学习笔记(二) 线性代数相关知识
- 机器/深度学习矩阵和线性代数学习笔记
- 机器学习学习笔记 3、线性代数与矩阵
- 机器学习笔记_数学基础_4-线性代数
- 机器学习笔记(三)矩阵和线性代数
- 七月算法机器学习笔记3 线性代数与矩阵
- 斯坦福机器学习笔记 第1周 三、线性代数回顾
- 【斯坦福大学-机器学习】3.线性代数
- 机器学习-->矩阵和线性代数
- 吴恩达机器学习二:线性代数
- @Autowired的用法
- HDU 1548 A strange lift (简单BFS)
- Java 基本数据类型与流程结构
- Python3学习(4)--集合list和tuple
- WKWebview 获取网页高度,图片点击查看,网页链接点击
- 机器学习笔记--线性代数
- JAVAWEB开发之工作流详解(一)——Activiti的环境搭建、插件安装、核心API
- BZOJ4721 [Noip2016]蚯蚓
- 关于Easy UI中文件上传处理进度条的实现
- 我的心不乱
- 一个好的开端
- echarts折线图时间轴展示
- 用微信小程序开店之二——Hello 小程序
- CCNA题库选择题36-40