深度学习笔记:稀疏自编码器(2)——反向传导
来源:互联网 发布:网络明星用英语怎么说 编辑:程序博客网 时间:2024/04/29 14:58
本文是深度学习笔记的第二篇,上一篇文章《神经元与神经网络》中讲到了前向传播算法,本文中将介绍如何进行参数的优化,即用反向传导。
0.本文中所使用的符号和一些约定
本文中所使用的样本集:
其他符号:
约定 本文中将函数
1.代价函数
要求解神经网络,就要通过最优化神经网络的代价函数(cost function)而得出其中的参数
对于单个样例
对于一个包含
其中第二项是一个规则化项(也叫权重衰减项),其目的是减小权重的幅度,防止过拟合,而
2.梯度下降
为了优化代价函数,要进行以下几步:
1. 初始化每一个参数
2. 使用最优化算法,诸如批量梯度下降法,梯度下降公式如下:
其中
计算梯度下降的关键步骤是计算偏导数,此时反向传导算法就要登场了。其实反向传导算法的思想和高数里复合函数求导的思想是一样的。
3.反向传导
我们将求偏导的项单独拿出来看:
显然,求出
由于:
因此要先求
计算
通过以上第一式可以求出第
再将上面两式代入(1)和(2)就能够求出整体的偏导数了。
- 深度学习笔记:稀疏自编码器(2)——反向传导
- 深度学习笔记:稀疏自编码器(4)——稀疏自编码器代码练习
- 深度学习笔记:稀疏自编码器(3)——稀疏自编码算法
- 深度学习基础(八)—— 稀疏自编码器
- 深度学习笔记:稀疏自编码器(1)——神经元与神经网络
- 深度学习笔记一:稀疏自编码器
- 深度学习笔记: 稀疏自编码器
- 深度学习算法原理——稀疏自编码器
- 深度学习基础(十一)—— 稀疏自编码器(二)
- 《深度学习》学习笔记(一):稀疏自编码器(Sparse Autoencoder)
- 深度学习基础(三)(稀疏)自编码器
- 深度学习入门 ---稀疏自编码器
- 系统学习深度学习(二) --自编码器,DA算法,SDA,稀疏自编码器
- 深度学习入门教程UFLDL学习实验笔记一:稀疏自编码器
- 【Deep Learning】1.深度学习:稀疏自编码器
- 稀疏自编码器 栈式自编码器 深度学习预训练
- UFLDL 教程学习笔记:1.稀疏自编码器
- UFLDL 教程学习笔记(二)反向传导算法
- 【计算机基础】如何选购计算机?
- JAVA中Stack和Heap的区别
- 通过SSH 实现穿透内网
- java代理模式-静态代理学习
- 计算圆周率
- 深度学习笔记:稀疏自编码器(2)——反向传导
- java 拦截器、过滤器、监听器
- LeetCode 237. Delete Node in a Linked List
- 虚拟机Linux下鼠标没反应
- 「转」中文文案排版指北
- 关于springboot的默认日志配置文件logback.xml
- Rxjava+Retrofit+Gson组合框架的使用(一)
- View 的滑动冲突
- 归并排序