Neural Networks Learning
来源:互联网 发布:js数组去重函数 编辑:程序博客网 时间:2024/06/08 10:49
一、前向网络
1、模型及隐藏层单元输出层单元的计算公式
2、损失函数
5、现在就可以使用损失函数的梯度以及fmincg来计算使cost函数最小化的权重值。
其中m为样本数,K为分类类别数。损失函数类似于logistics的损失函数,由于logistics为2分类所以比神经网络少了K的累加。
3、正则化
正则项为每一项的权重平方和累加
j,k分别为权重的行列数。
4、带有正则化得损失函数
二、后向网络
如果说前向网络的目的是利用权重W和样本X计算假设函数h(x)从而得出损失函数。那么后向网络就是利用样本X,Y来为前向网络计算权重W的过程。
1、初始化
使用随机初始化为权重W初始化,不可以使用全0。
2、后向网络模型以及每层网络损失量计算
特别注意第一层网络无损失量,因为就是X。
3、计算每层网络累加损失量
损失值累加即为损失函数的梯度
4、为损失函数梯度增加正则化时不要计算偏置量。
三、总结:
1、前向网络得出J,后向网络得出J的梯度。最后通过fmincg得出网络权重,即训练结束。
2、使用后向网络是为了求解损失函数的梯度,因为直接对损失函数求导是无法得出梯度的。
0 0
- Deep learning-------------Neural networks
- 09: Neural Networks - Learning
- 7-Neural Networks--Learning
- Neural Networks Learning
- Neural Networks and Deep Learning
- Neural Networks and Deep Learning
- Neural networks and Deep Learning
- Neural Networks and Deep Learning
- Stanford ex4:Neural Networks Learning
- Neural Networks for Machine Learning
- Machine Learning week 5 Neural Networks Learning
- Stanford ML - Lecture 5 - Neural Networks: Learning
- Machine Learning week 4 Neural Networks Presentation
- BOOK: Neural Networks and Learning Machines
- 《Neural networks and deep learning》概览
- 《Neural networks and deep learning》概览
- Deep Learning in Neural Networks: An Overview
- 《Neural networks and deep learning》概览
- 平衡二叉树判断
- 复杂链表的复制
- 史上最全最强SpringMVC详细示例实战教程
- 二叉搜索树与双向链表
- 字符串的排列
- Neural Networks Learning
- A + B Problem II
- uniquePaths
- 数组全排列
- 2016年04月10日
- vector api
- 哈希表与红黑树
- 寻找矩阵中最短路径 Minimum Path Sum
- generateMatrix 给定N 返回指定矩阵