学习笔记3 Supervised Neural Networks
来源:互联网 发布:北京和隆优化科技 编辑:程序博客网 时间:2024/05/20 20:58
一、神经网络模型
这是一个全连接的三层神经网络模型,分别为输入层,隐层,输出层。
层与层之间的关系如下:
其中f()为激活函数,一般是sigmoid function, 也有其他的,如tangent,tanh function等。
二、后向算法
代价函数为
其中后面一项为正则项,防止过拟合。
同样的,我们需要使用梯度下降的方法
其中
我们通过一种后向算法来计算残差,进而计算梯度。
我们可以选择一种均方误差的形式来表示代价函数
对于单个训练样本来说,计算梯度的过程如下:
整体的系数更新过程如下:
对于sigmoid函数,其导数可以表示为
以上就是网络的学习过程。
三、加入softmax function
我们的神经网络在多输出的时候,在最后一个隐层与输出层之间的连接可以采用softmax function.
此时的代价函数为
其中为最后一个隐层的。为了跟上面的式子一致对应,这里的代价函数J 可以在求和式之前加一个系数(1/m);
输出层的残差可以表示为
这就是加入softmax function之后所需要改变的地方。
0 0
- 学习笔记3 Supervised Neural Networks
- Neural Networks学习笔记
- Supervised Sequence Labelling with Recurrent Neural Networks
- BP,RNN 和 LSTM暨《Supervised Sequence Labelling with Recurrent Neural Networks-2012》阅读笔记
- 【学习笔记】【Coursera】【MachineLearning】Neural Networks
- VGG Convolutional Neural Networks Practical 学习笔记
- neural networks学习笔记(一)
- neural networks学习笔记(二)
- TensorFlow学习笔记14----Convolutional Neural Networks
- 《Neural Networks for Machine Learning》学习笔记
- neural networks and deep learning 学习笔记
- Improving Deep Neural Networks学习笔记(一)
- Improving Deep Neural Networks学习笔记(二)
- Improving Deep Neural Networks学习笔记(三)
- CS231n学习笔记--10.Recurrent Neural Networks
- Neural Networks and Deep Learning 学习笔记
- 学习笔记6 Supervised Convolutional Neural Network 之 Convolutional Neural Network
- Binarized Neural Networks笔记
- 素数(质数)4
- vim使用教程(转自菜鸟教程)
- sdk(安卓)
- 反汇编---汇编基础学习
- 判断语言环境
- 学习笔记3 Supervised Neural Networks
- Android 三大图片缓存原理、特性对比
- 学习笔记------数据结构(C语言版)栈应用 表达式求值
- 大数据IMF行动传奇 迈向SparkContext天堂之门! 探索天堂之门!
- 155. Min Stack
- 汉字转换拼音
- 使用Spring JMS收发消息
- log4j【6】(Java日志)
- 4260: Codechef REBXOR trie