[笔记]监督学习·梯度下降
来源:互联网 发布:音乐相册制作软件app 编辑:程序博客网 时间:2024/06/03 06:09
监督学习(Supervised Learning)
SupervisedLearning,Wiki
通过训练资料(包含输入和预期输出的数据集)去学习或者建立一个函数模型,并依此模型推测新的实例。函数的输出可以是一个连续的值(回归问题,Regression),或是预测一个分类标签(分类问题,Classification)。
机器学习中与之对应还有:
无监督学习(Unsupervised Learning)
强化学习(Reinforcement Learning)
在课程中定义了一些符号:
线性回归(Linear Regression)
栗子:房屋价格与居住面积和卧室数量的关系
在这里输入特征变成了两个x1,x2,目标变量就是价格
x1: Living area
x2: bedrooms
可以把它们称之为x的二维向量。
在实际情况中,我们需要根据你所选择的特征来进行一个项目的设计。
我们之前已经了解了监督学习,所以需要我们决定我们应该使用什么样的假设函数来进行训练参数。线性函数是最初级,最简单的选择。
所以针对例子假设函数:
其中的θ就是要训练的参数(也被成为权重),我们想要得到尽可能符合变化规律的参数,使得这个函数可以用来估计价格。
因为要训练θ,所以引入cost function(损失函数/成本函数)
最小二乘法(LMS algorithm)
我们需要求出使
假设只有一个训练样本
所以更新函数为:
这就是最小二乘法(LMS, least mean squares)更新规则。
在面对多个样本进行处理时,就需要在此基础上演变更新规则。
批处理梯度下降(batch gradient descent)
每一步都要访问整个数据集
随机梯度下降(stochastic gradient descent)
每个样本进行一次更新
随机梯度下降比批处理梯度下降收敛更快。
所以当数据集比较大时,随机梯度下降优于批处理梯度下降。
正规方程组(normal equations)
矩阵导数
简单地来说就是用矩阵中的每个元素对f求导,然后将导数写在各个元素对应的位置。
矩阵的迹
一个n×n矩阵A的主对角线(从左上方至右下方的对角线)上各个元素的总和被称为矩阵A的迹(或迹数),一般记作tr(A)。
常用性质:
实数a,
方程组求解
前提设计:X输入特征,y目标变量
根据性质对式子进行展开化简
其中,
第三步用到了
第四步用到了
第五步用到了
由此可化为
使J最小化,所以
- [笔记]监督学习·梯度下降
- 监督学习应用.梯度下降笔记
- 梯度下降--监督学习
- 监督学习应用.梯度下降.
- 监督学习应用-梯度下降
- 监督学习应用.梯度下降.
- Stanford机器学习笔记监督学习与梯度下降
- 机器学习笔记(1)---监督学习之梯度下降
- 机器学习笔记二:监督学习应用:梯度下降
- [机器学习]监督学习应用.梯度下降
- 监督学习应用与梯度下降
- 监督学习应用与梯度下降
- 监督学习应用与梯度下降
- 监督学习应用与梯度下降
- 第二节:监督学习应用,梯度下降
- 监督学习应用与梯度下降
- 第二课 监督学习应用 梯度下降
- 【机器学习-斯坦福】学习笔记2 - 监督学习应用与梯度下降
- linux下vimrc和.vimrc以及.vimrc的常用设置
- Arcglobe删除图层
- C
- 包装类和基本数据类型间的转换
- 技术管理工作中的三个原则
- [笔记]监督学习·梯度下降
- C++之static及其作用域
- UML类图关系(泛化 、继承、实现、依赖、关联、聚合、组合)
- centOS mysql 8小时后自动断开连接
- ubuntu 配置jdk环境变量
- QT开发环境配置
- 棋牌AI思路--斗地主
- ZOJ 1005 || POJ 1606
- web浏览器无插件播放实时音视频技术---WebRTC2SIP与第三方SIP网关对接(五)