【神经网络和深度学习】学习笔记
来源:互联网 发布:网络新词汇2016加解释 编辑:程序博客网 时间:2024/05/02 18:16
神经网络基础
神经网络的计算过程中,通常有一个正向过程(正向传播步骤)计算成本函数,接着会有一个反向过程(反向传播步骤)计算导数。
1. 二分分类
对于二分分类问题,其目标是训练出一个分类器。它以特征向量x作为输入,预测输出的结果标签y(1或者0)。
用(x,y)表示一个单独的样本,其中,
训练集(training sets)由m个训练样本构成——
通常情况下,为了方便构建神经网络,输入x用矩阵表示为
2. 逻辑回归
一种用在输出为0和1的二分分类问题的监督学习中的学习算法。其目标为最小化预测值与训练值之间的误差。
给出特征向量
给出
2.1 Loss(Error)function
被用作衡量单个训练样本的误差。
2.2 Cost function
计算整体训练集的平均损失。最终需要找到使
使得损失函数最小,获得回归系数的算法有:
- 梯度下降法
- 牛顿迭代算法
- 拟牛顿迭代算法(BFGS算法和L-BFGS算法)
2.3 梯度下降法
为得到最小的损失函数值,对w求偏导,并使其偏导为0,然后用随机梯度下降法求解方程组。梯度下降w的更新过程,走梯度方向的反方向:
其中:
因此,
2.4 向量化
阅读全文
0 0
- 【神经网络和深度学习】笔记
- 【神经网络和深度学习】笔记
- 【神经网络和深度学习】学习笔记
- 神经网络和深度学习笔记(一)
- 神经网络和深度学习
- 吴恩达 神经网络和深度学习 第二周神经网络基础笔记
- 吴恩达深度学习入门学习笔记之神经网络和深度学习(第二周:神经网络基础)
- 吴恩达深度学习入门学习笔记之神经网络和深度学习(第二周:神经网络基础)
- 斯坦福大学深度学习笔记:神经网络
- 深度学习笔记1:神经网络 卷积神经网络
- 深度学习 卷积神经网络学习笔记1
- 《神经网络与深度学习》学习笔记
- 深度学习和神经网络——第二周笔记
- Coursera吴恩达《神经网络和深度学习》课程笔记(2)
- Coursera吴恩达《神经网络和深度学习》课程笔记(3)
- AndrewNg神经网络和深度学习笔记-Week2-11向量化
- AndrewNg神经网络和深度学习笔记-Week3-6激活函数
- 吴恩达深度学习入门学习笔记之神经网络和深度学习(第一周)
- CNN:Windows下编译使用Caffe和Caffe2
- SD/eMMC寄存器介绍
- Kotlin之var和val区别
- 检测网络 (没有网络 WIFI网络 net网络)
- Eight HDU
- 【神经网络和深度学习】学习笔记
- 9.6 C和指针--------
- Redis安装系统服务1073错误
- android启动白屏解决方案
- <三>、hibernate3转换为hibernate4
- 机器学习(Machine Learning)&深度学习(Deep Learning)资料
- 并行运算框架OpenCL的一些基本概念
- springboot mybatis打印sql
- POJ1426 Find The Multiple —— BFS