吴恩达深度学习课程第二部分笔记要点
来源:互联网 发布:linux卸载软件 yum 编辑:程序博客网 时间:2024/06/05 15:34
1-通过迭加计算训练集上的error来判断是否high bias,利用验证集上的error判断是否high variance;
2-测试阶段不用Dropout层;Dropout层是用于预防overfitting的正则化方法;
代价函数J对于Dropout层未明确定义,为检查梯度是否一直下降,需关闭Dropout层或将参数设为1;
3-gradient check只用于debug,不与Dropout同时使用;
4-mini-batch gradient descent适合样本数2000以上的数据集;
batch size 一般在64-512之间,最好为2的次方(运行速度更快);使用mini-batch后画出的loss曲线会有小波动,并不是一直在严格下降;
5-Gradient Descent with Momentum 比纯梯度下降效果更好,beta通常取0.9;
6-RMSprop=Root Mean Square Prop, hyperparametres := alpha, beta1, epsilon;
hyperparametres := alpha, beta1=0.9, beta2=0.999, epsilon=10e-8;
8-超参数重要性:
学习速率alpha > momentum(0.9), #hidden units, mini-batch size > #layers, learning rate decay > Adam(beta1=0.9, beta2=0.999, epsilon=10e-8);
10-学习速率按对数坐标系均匀取值:0.0001, 0.001, 0.01,...;
11-指数平均值beta按(1-beta)对数轴均匀取值:0.9, 0.99, 0.999,...;
12-超参数训练实践:一次训练一个模型并加以优化-vs-同时训练好几个模型并比较优劣;
13-Batch Normalization: 在应用激活函数前对隐藏层输出进行归一化操作,以加速训练。
- 吴恩达深度学习课程第二部分笔记要点
- 吴恩达深度学习课程第三部分笔记要点
- 吴恩达深度学习课程笔记
- 吴恩达深度学习课程第一课第二周课程作业
- 吴恩达 神经网络和深度学习 第一部分课程 第二章课后习题 Neural Network Basics Quiz, 10 questions
- 吴恩达 神经网络和深度学习 第一部分课程 第二章课后习题 Python Basics with numpy (optional)
- 吴恩达 神经网络和深度学习 第一部分课程 第二章课后习题 Logistic Regression with a Neural Network mindset
- 斯坦福深度学习课程解释--第二课
- 吴恩达《深度学习》课程
- 吴恩达深度学习课程四:卷积神经网络(学习笔记)
- 吴恩达深度学习课程笔记 1.2什么是神经网络?
- 吴恩达深度学习课程笔记 2.1二分分类
- 吴恩达深度学习课程笔记 2.2Logistic Regression逻辑回归
- 吴恩达深度学习课程笔记 2.3逻辑回归cost function
- 吴恩达《神经网络与深度学习》课程笔记归纳(一)
- Coursera吴恩达《神经网络和深度学习》课程笔记(2)
- Coursera吴恩达《神经网络和深度学习》课程笔记(3)
- 吴恩达深度学习课程笔记之神经网络基础
- 四种字节流复制文件的效率比较
- DirectX 渲染 学习笔记(1)
- SAS宏语句及其功能含义
- 包含MIN函数的栈
- Android将图片保存到本地文件
- 吴恩达深度学习课程第二部分笔记要点
- wireshark使用Tips
- 平安科技2017笔试题目
- TCP协议与UDP协议的区别
- httpclient中get和post的区别
- 函数、方法和接口的区别
- 关于kali无法成功安装vmwaretools的解决办法
- 批量delete或drop数据集
- linux学习简记