损失函数
来源:互联网 发布:安全生产事故数据 编辑:程序博客网 时间:2024/04/27 15:05
损失函数
当在训练神经网络模型的时候,特别是一些线性分类器,往往需要定义一个损失函数
原则上是可以使用任意的函数用来映射这种评分函数,但是在实际优化过程中,更倾向于损失函数易于求梯度,这对模型的优化具有重要作用。
Hinge Loss
Hinge Loss损失函数,也被称为“最大距离损失”函数,之所以称为距离损失,因为其优化的目的可以认为是将距离最大化,这个思想在SVM优化中得到应用。
Hinge Loss二分类:对于二分类问题,神经网络模型往往输出一个变量
损失函数的数学表达式:
可以想象,当分类器输出正确且
此处注意:
Hinge Loss多分类:对于多分类问题,
假设用
该损失函数最小化,就是要让正确分类下标项尽可能的大,而其他的项尽可能的小。其距离也是如上所述,最小为1。
Cross-entropy Loss
第三种损失函数——交叉熵损失函数
交叉熵损失函数二分类:对于二分类问题,以逻辑回归模型为例。
上式求和,前半部分代表分类概率偏向1,后一个偏向0,每次
交叉熵损失函数多分类问题:对于多分类问题,交叉熵以概率的方式进行解释。
另
对于交叉熵的含义可以参看如何通俗的解释交叉熵与相对熵
对于hard分类问题,即每个样本都有一个确定的类别固定,如手写体识别问题,每张图,其有一个确定的类别,其余类别都为0。那么交叉熵损失函数可以简化为:
其中
举个例子来说明:以手写体识别为例
假设有10个样本,
损失函数就对应了简化的交叉熵损失函数:
其中D代表样本空间。
Ranking losses
在某型领域,我们并没有给定的监督样本,即没有样本的对应标签,毕竟监督数据是昂贵的,此时拥有的是正确样本
其中
该损失函数的另一个变种,使用
这种损失函数的训练方法在词向量Word Embedding训练过程中得到充分的应用,Mikolov在其论文【1】中提出Negative Sampling模型中应用,并附上该模型讲解分析博客【2】,感谢博主深入的分析,让我受益匪浅。
Squared loss
在线性回归和线性分类器中,经常用到Squared loss(平方误差),即将模型输出
损失函数讲义
查看链接【3】
参考:
1. Sridhar V K R. Unsupervised Text Normalization Using Distributed Representations of Words and Phrases[C]// The Workshop on Vector Space Modeling for Natural Language Processing. 2015:8-16.
2. http://blog.csdn.net/itplus/article/details/37998797
3. 一份不错的损失函数讲义
4. 手写识别案例
5. 如何通俗的解释交叉熵与相对熵
- 损失函数
- 损失函数
- 损失函数
- 损失函数
- 损失函数
- 损失函数
- 损失函数
- 损失函数
- 损失函数
- 损失函数
- 损失函数
- 损失函数
- 损失函数
- 损失函数
- 损失函数
- 损失函数
- 损失函数
- 损失函数 目标函数
- HTML5 input新增属性
- 循环神经网络(二)
- linux的nohup命令的用法。
- 如何用ListView异常流畅的加载大量高清无码大图。
- 浅析oracle入门级操作
- 损失函数
- 【51nod 1055 & 1056】最长等差数列及V2 题解
- libraries_v120_x64_py27_1.0.1.tar.bz2
- HashMap源码剖析
- ldrd/strd的使用方法
- Linux Shell编程入门
- Android数据库补充
- 对比iOS网络组件:AFNetworking VS ASIHTTPRequest
- 关于CMFCMenuBar写注册表的解决办法