机器学习笔记week5(Andrew NG)
来源:互联网 发布:unity3d 数据库 编辑:程序博客网 时间:2024/06/03 16:18
机器学习笔记week5(Andrew NG)
martin
- 机器学习笔记week5Andrew NG
- cost function
- BPBackPropagation算法
cost function
下图分别是逻辑回归和神经网络的cost function,可以看到,神经网络的代价函数比逻辑回归多了一层求和,原因是神经网络的输出层包含K个输出节点,如果要进行多分类的话需要确定哪一节点是1,从而将输出结果表达成one-hot的形式。
练习题1
BP(BackPropagation)算法
BP算法的产生是源于神经网络的多层次结构所致。因为不同于逻辑回归只有一层一个节点,神经网络包含了多个数个节点,而不同层之间的节点通过不同的“线”所连接,而被我们把这些线统称为权重weight或者
跟逻辑回归一样,我们定义好了cost function函数后就要对其关于
关于上图中的一些方程我们可以用下图来化简下,可能更直观些:
我们把每一层的多个节点都用一个大圆圈来表示,这样,层与层之间就变成了一个链式结构,可以看到每一层的输入都是上一层的输出,彼此依赖。
上图是NG在视频中直接给给出的公式,并没有进行推导,所以看着有点蒙,这里给大家推导一下:
先明确下目标,我们的目标是:
我们定义
而这里,我们就定义
- 输出层
σ(L)=∂J(θ)∂z(L)=∂J(θ)∂a(L)∂a(L)∂z(L)=((1−y)1−a(L)−yaL)a(L)(1−a(L))=a(L)−y - 隐含层
σ(L−1)=∂J(θ)∂z(L−1)=∂J(θ)∂a(L)∂a(L)∂z(L)∂z(L)∂a(L−1)∂a(L−1)∂z(L−1)=(a(L)−y)θ(L−1)a′=σ(L)θ(L−1)a′
即σ(L−1)=σ(L)θ(L−1)a′ - 输入层
输入层不用进行反向传播。
此时,我们已经将目标
于是,我们的目标函数就是这样的:
然后稍微做下变动:
于是就有了BP算法的整个过程:
练习
阅读全文
0 0
- 机器学习笔记week5(Andrew NG)
- Andrew Ng机器学习课程笔记--week5(上)
- Andrew Ng机器学习课程笔记--week5(下)
- Andrew NG 机器学习 笔记-week5-神经网络的学习(Neural Networks:Learning)
- Andrew Ng机器学习week5(Neural Networks: Learning)编程习题
- andrew ng机器学习笔记
- Andrew Ng 《机器学习》课程笔记
- Andrew Ng 机器学习笔记(一)
- Andrew Ng 机器学习笔记(二)
- Andrew Ng 机器学习笔记(三)
- Andrew Ng 机器学习笔记(四)
- Andrew Ng 机器学习笔记(五)
- Andrew Ng 机器学习笔记(六)
- Andrew Ng 机器学习笔记(七)
- Andrew Ng 机器学习笔记(八)
- Andrew Ng机器学习笔记1
- Coursera机器学习(Andrew Ng)笔记1
- 机器学习笔记week1(Andrew NG)
- 线段树 小结
- 如何理解“命名空间”?
- 跟我一起写 Makefile
- BZOJ 4894: 天赋 有向图生成树计数
- C++类中指针成员的管理(值型类、智能指针)
- 机器学习笔记week5(Andrew NG)
- 解题报告:LightOJ_1406 状压DP
- C#Winform调用EasyDarwin项目中的libEasyPlayer.dll
- matlab的c程序接口mexFunction函数剖析
- 可以删除吗QAQ
- 阿里云旺自定义消息和首次打开聊天界面自动发送消息的实现
- 每日英语阅读(四十五)
- 0—1背包问题
- Android 中能够作为 Log 开关的一些操作以及安全性浅谈