Stanford 机器学习 Dimensionality Reduction
来源:互联网 发布:linux查内存 编辑:程序博客网 时间:2024/06/05 10:41
14.3 Principal Component Analysis Problem Formulation
我们想要找到的向量是一个向量,并且原样本点到投影后的样本点的距离之和最小。
等价于,使得投影后样本点的方差最大化。
将3-d转到2-d时,应该找到两个向量表示这个投影的平面。
线性回归和PCA的差别,线性回归优化的是预测值和真实值的距离,而PCA优化的目标是到投影点的距离,并且PCA是不用来预测y值的。
14.4 Principal Component Analysis Algorithm
在使用PCA算法之前,要进行预处理,其中
求出协方差矩阵,并对协方差矩阵进行奇异值分解,分解后选取前k个向量就是我们需要的向量。
在这里,主要支出了协方差矩阵的另一个求法,sigma=
14.5 Choosing the Number of Principal Components
给出了两个参数,第一个参数是数据到映射点的平均距离,第二个是数据的方差。通过两个的比值作为选取k值的标准,如果比例>0.99,我可以称%99的误差被保留了。
给出了算这个比例的另一个方式,就是通过奇异值分解后的S矩阵。
14.7 Advice for Applying PCA
1 不要将PCA用于防止过拟合
2 在使用PCA之前,先跑原始数据,仅当需要使用PCA时,再使用。
0 0
- Stanford 机器学习 Dimensionality Reduction
- Stanford 机器学习笔记 Week8 Dimensionality Reduction
- 【Stanford机器学习笔记】12-Dimensionality Reduction
- Stanford机器学习笔记-10. 降维(Dimensionality Reduction)
- 机器学习教程之11-降维(Dimensionality Reduction)
- Stanford ML - Lecture 10 - Dimensionality Reduction
- 斯坦福机器学习视频笔记 Week8 无监督学习:聚类与数据降维 Clusting & Dimensionality Reduction
- Clustering (番外篇): Dimensionality Reduction
- 12-Dimensionality Reduction
- Week3-4Dimensionality reduction
- 降维 Dimensionality Reduction
- Dimensionality Reduction(降维)
- Dimensionality Reduction—PCA
- Dimensionality Reduction(学习Free Mind知识整理)
- sklearn-学习:Dimensionality reduction(降维)-(feature selection)特征选择
- 漫谈 Clustering (番外篇): Dimensionality Reduction
- Matlab Toolbox for Dimensionality Reduction
- Matlab Toolbox for Dimensionality Reduction
- 【C语言】动态内存分配alloca
- UVa 712 S-Trees(满二叉树数组保存与编号)
- g4l 备份还原linux系统
- cug1699数组反转
- PAT乙级1006:换个格式输出整数 (15)
- Stanford 机器学习 Dimensionality Reduction
- java性能优化之二 循环里面不使用hibernate创建对象
- solr占用CPU持续过高原因查询
- lintcode ----反转整数
- 20160511 GreenPlum9 索引
- Android 命名规范 (提高代码可以读性)
- Xcode快捷键
- git新手入门 全套安装包
- 进程上下文和中断上下文