深度学习基础数学知识整理
来源:互联网 发布:SEO优化 编辑:程序博客网 时间:2024/05/29 12:34
线性代数部分
1.1 基础概念
标量(scalar), 向量(vector), 矩阵(matrices), 张量(tensor)
1.2 矩阵相关:
转置(transpose), 矩阵乘法, 单位矩阵, 逆矩阵
1.3 线性相关
线性方程:
线性组合: X 中各个列向量乘以对应的系数之和:
生成空间: X中的原始向量线性组合后能抵达的点的集合. 确定上述方程是否有解相当于确定向量
矩阵X可逆时解为
因此, 矩阵X只有是方阵且所有列向量都是线性无关的时候才满足要求, 若列向量线性相关, 则成该方阵X是奇异的.
这里引出了线性模型的基本模型:
X可逆时 ,我们可以直接对两边求逆, 得到线性模型的唯一解
正因为在现实世界里, 直接对矩阵求逆来得到唯一解
求最小化误差的一般方法是求残差的平方和最小化, 这也就是所谓的线性最小二乘法.
1.4 范数(norm)
在机器学习中, 通常用范数来衡量一个矩阵的大小, L^p范数公式:
范数是将向量映射到非负值的函数, 简单来讲, 向量
p = 2时, L^2称为欧几里得范数(Euclidean norm), 表示原点到向量
L^2范数:
平方L^2 范数对
有时候平方L^2范数在原点附近增长缓慢, 在某些机器学习业务场景下, 区分元素值是否非零很重要, 此时更倾向于使用L^1范数:
在机器学习中,
1.5 伪逆(Moore-Penrose)
非方阵方程,其逆矩阵没有意义. 假设要求解线性方程
是否存在唯一映射, 将
伪逆可以解决上述问题, 矩阵A的伪逆定义为:
矩阵U, D, V是矩阵A的奇异值分解后的矩阵, 对角矩阵D的伪逆
- 矩阵A的列数多于行数时, 可能有多个解. 伪逆求解线性方程是众多解法中的一种, 即:
x⃗ =A+→y⃗ 是所有可行解中欧几里得距离最小的一个 - 矩阵A列数小于行数是, 可能没有解. 伪逆求解得到的x是
A⃗ x 和y⃗ 的欧几里得距离||A⃗ x−y⃗ ||22 最小的解.
这里又回到了求解线性问题的一般思路上: 线性最小二乘法
- 深度学习基础数学知识整理
- 搞深度学习需掌握的基础数学知识
- 基础数学知识整理(1)
- 深度学习涉及的数学知识
- 【数学知识整理】
- 基础数学知识
- 机器学习 基础 数学知识之线性代数
- 3D游戏部分基础数学知识整理笔记1
- 3D游戏部分基础数学知识整理笔记2
- Shader相关的基础数学知识整理(持续补充
- DirectX学习笔记--3D基本数学知识整理
- ML&DL 数学知识整理
- 深度学习数学基础笔记整理(一)
- 深度学习数学基础笔记整理(二)
- 机器学习笔记之基础数学知识(一)
- 深度学习笔记整理
- 深度学习 资料整理
- 整理深度学习资料
- Codeforces 825 F Minimal Labels(反向拓扑排序)
- Mybatis的配置和使用
- 2017上半年总结
- ScrollView嵌套ListView、GridView冲突
- Android Shader填充图形
- 深度学习基础数学知识整理
- 如何下载谷歌地图指定日期的历史影像?
- wsimport 不是内部或外部命令,也不是可运行的程序或批处理文件
- 问题 G: 水果消除
- 彻底理解ThreadLocal
- Spring Boot学习记录(四)--问题记录
- 在PySide中嵌入VTK
- Web基础之JSP与EL表达式
- ionic 上拉加载更多详细步骤