cs231n笔记(4)——正则化
来源:互联网 发布:线切割编程软件有几种 编辑:程序博客网 时间:2024/06/03 17:17
一.
首先,如图一所示,红色为数据样本,当我们用一次函数去拟合数据时,可以看出,函数并不能很好的拟合数据。此时,我们称为欠拟合。
第二幅图,我们在中间加入一个二次项,也就是说对于这幅数据我们用二次函数去拟合。自然,可以拟合出一条曲线,事实也证明这个拟合效果很好。
然后如图三所示,当我们用四次函数去拟合数据时,虽然每个数据都在函数图像上,但是显而易见这并不是我们期望得到的数据趋势,为什么呢?很简单,它的分类只是适合于自己这个测试用例,对需要分类的真实样本而言,实用性可想而知的低。此时,我们称为过拟合。
二. 什么样的情况会出现过拟合:
过多的变量(特征),同时如果我们没有足够的数据集(训练集)去约束这个变量过多的模型,那么就会发生过拟合。
三. 如何防止过拟合:
1. 尽量减少选取变量的数量(图中不同次X的数量)
2. 正则化:正则化中我们将保留所有的特征变量,但是会减小特征变量的数量级,我们要加上惩罚项,从而使参数 θ3 和 θ4 足够的小。
四. 正则化
图中标红为正则项。
常用的正则函数有L1,L2两种,如下:
具体原理,在https://www.zhihu.com/question/20924039里有详细解释。我们要做的只有将损失函数正则化即调整参数惩罚正则项,防止数据过度拟合。
阅读全文
0 0
- cs231n笔记(4)——正则化
- cs231n笔记(3)—误差函数
- CS231n课程笔记3.1:线性分类器(SVM,softmax)的误差函数、正则化
- cs231n笔记(8++)——扔掉层(drop)
- cs231n笔记(1)——-KNN算法
- cs231n笔记(2)——线性分类器
- cs231n笔记(7)——图像处理中的卷积
- cs231n笔记(8+)——全连接层
- cs231n笔记(9+)——非极大值抑制
- CS231n 学习笔记(4)——神经网络 part4 :BP算法与链式法则
- 斯坦福CS231n-计算机视觉—笔记汇总
- 斯坦福大学深度学习公开课cs231n学习笔记(7)神经网络防止数据过拟合:损失函数和正则化
- CS231n——RNN
- CS231n 学习笔记(1)——神经网络 part1 :图像分类与数据驱动方法
- CS231n 学习笔记(2)——神经网络 part2 :线性分类器,SVM
- CS231n 学习笔记(2)——神经网络 part2 :Softmax classifier
- CS231n 学习笔记(3)——神经网络 part3 :最优化
- cs231n 学习笔记(5)——神经网络part1:建立神经网络架构
- 最好用的开源Web漏洞扫描工具梳理
- 贪心poj1328
- 51单片机定时器和波特率
- 机器学习入门:线性回归及梯度下降
- 《知道做到》有感
- cs231n笔记(4)——正则化
- JAVA从入门到超神(二)
- 一些滑动效果插件的官方手册网站
- HOG算法
- HorizontalListView的滑动冲突解决
- leetCode-Minimum Path Sum
- java基础一阶段
- Java 深入学习(19) —— 继承
- 解释器模式