第二周 神经网络基础
来源:互联网 发布:优化算法比较好的书籍 编辑:程序博客网 时间:2024/05/29 14:05
基本概念
给定由
其中
利用向量表示输入输出关系,可以简单表示为:
输入与输出形成的
由m个样本集构成的训练集可以表示为
显然
此处采用的是 列向量的表示方式,也可以用行向量的表示方式,
而用列向量更方便处理数据,因此以后采用列向量表示
Logistic Regression基础
logistic Regression(逻辑回归) 是一种监督学习的 Binary Classfication(二分分类) 算法, 二分分类算法其实就是判断输入是或者不是的某种结果的一种算法。
监督学习中,通过训练集与算法形成一个对应的模型,然后利用该模型去预测测试集里面的数据。
例如: 判断一张图片是否为 Cat 就是一个二分分类的问题。输入
理想情况, 希望当输入
Sigmoid 图像表示为:
我们可以观察到,sigmoid函数 对于任何输入
因此
Logistic Regression中, 我们已经知道了输入
But, 怎么去判断一个函数准确度呢?
Loss Function(损失函数) 和 Cost Function
实际操作中,模型预测值
损失函数(Loss Function):
成本函数(Cost Function):
证明:
单个样本的损失函数:
在单个样本中, 我们定义了sigmoid函数
假设 y = 1 时,
利用log函数的单调性, 可以将 上述公式转换为:
我们定义, 损失函数
对于单个样本而言,我们需要求得最小的损失函数, 也就是需要求得 最大的
m个样本集的成本函数:
在训练集中,我们假设 样本 独立同分布的,那么 m 个样本集的最大似然估计
其对数似然函数:
如果我们希望
那么定义样本集的成本函数可定义为:
最大似然函数: 《概率论与数理统计》 第七章
梯度下降 - 单个样本
为了训练得到更好的模型,需要我们选取到最优的
通过不断的学习, 使得
来获取到最优解
关于导数的相关知识,可以参考高等数学-导数
对于 Logistic Regression,我们可以得到如下:
假设输入有两个特征,下图表示一系列过程:
那么可以求得:
梯度下降 - 样本集
向量化概念1
向量化概念2
反向推导
- 第二周神经网络基础
- 第二周 神经网络基础
- 吴恩达 神经网络和深度学习 第二周神经网络基础笔记
- 吴恩达深度学习入门学习笔记之神经网络和深度学习(第二周:神经网络基础)
- 吴恩达深度学习入门学习笔记之神经网络和深度学习(第二周:神经网络基础)
- 改善深层神经网络第二周-Optimization methods
- 神经网络基础
- 神经网络基础
- 神经网络基础
- 神经网络基础
- 神经网络基础
- 神经网络基础
- 神经网络基础
- 神经网络基础
- 第二周 PHP基础
- 神经网络-第二章
- 神经网络入门 第二部分
- 神经网络第二讲
- 分布式计算的几种硬件场景及其对应的解决方案
- Android情景分析之属性服务(新)
- c++内存分配方式,栈,堆,静态存储区
- 配置ubuntu17.10启动到命令行
- 20171111
- 第二周 神经网络基础
- 发博客只是为了记录自己学习过程的东西,到时候要使用的时候忘记 免得在寻找
- 关于Construct2游戏制作策划与成果
- jQuery属性html()、text()、和val()方法的对比
- 章节5 目标板程序SystemView模块的实现
- 6.17兑换人民币
- <map>标签
- LeetCode题解 week10
- SpringMvc学习之路