[UFLDL-1] 监督学习和优化
来源:互联网 发布:淘宝购物车秒杀 编辑:程序博客网 时间:2024/05/07 11:22
- 线性回归
- 问题简介
- 函数最小化
- 逻辑回归
线性回归
问题简介
http://ufldl.stanford.edu/tutorial/supervised/LinearRegression/
作为一个回顾,我们将学习怎样实现线性回归。主要的目的是学习目标函数,计算它们的梯度并且在参数集上优化。这些基本的工具之后将成为更加复杂算法的基础。读者希望了解更多细节可以参考讲义上面的监督学习。
在线性回归中我们的目标是从输入向量
为了找到使得
这个函数是损失函数,我们的问题是度量一个选定的
函数最小化
我们现在希望找到一个
上的
微分函数表示如下:
逻辑回归
http://ufldl.stanford.edu/tutorial/supervised/LogisticRegression/
前面我们学习了如何通过输入值的线性函数(比如,房子的大小)来预测连续的数值(比如,房子价格)。有些时候我们希望预测离散的变量例如预测一个灰度值表示的是数字0或者1.这是一个分类问题。逻辑回归是学习做这样决策的简单分类算法。
在线性回归中我们试图使用线性函数1
的概率与属于0
的概率。特别的,我们试图学习下面的函数:
函数 sigmoid
或者logistic
函数。它是一个S型的函数,压缩
需要注意的是上面求和的部分只有1个不为0(这取决于标签是否为0)。 当
我们现在有了一个损失函数来度量一个假设到底拟合训练数据到怎样程度。我们可以找到使得
为了最小化
向量表示形式:
- [UFLDL-1] 监督学习和优化
- 机器学习笔记1---监督学习和无监督学习
- 机器学习(1)监督学习和无监督学习
- UFLDL 学习笔记1
- 【学习笔记】 UFLDL-1
- 监督学习和无监督学习
- 监督学习和无监督学习
- 监督学习和非监督学习
- 监督学习和无,监督学习区别
- 监督学习和非监督学习
- 监督学习和无监督学习
- 监督学习和无监督学习
- 监督学习和无监督学习
- 监督学习和无监督学习
- 【机器学习】监督和非监督学习
- 监督学习和非监督学习
- 监督学习和无监督学习
- 有监督学习和无监督学习
- 关于struct2中result的小tip
- 低功耗蓝牙BLE之广播
- 数据缓存——Plist文件的使用
- (LeetCode 326)Power of Three
- 求解最大子列和问题——MaxSubSum
- [UFLDL-1] 监督学习和优化
- 排序算法的笔记
- 【译文】利用dplyr包进行数据操作
- 6.单行函数-通用函数
- 51Nod-1012-最小公倍数LCM
- Linux下mysql使用记录
- 数据缓存——SQLite关系型数据库的使用
- 开心的小明(dp-01背包问题)
- POJ 1988 Cube Stacking【带权并查集】