有关熵的几个概念 及 最大似然和交叉熵的一致性
来源:互联网 发布:js循环while偶数 编辑:程序博客网 时间:2024/06/07 07:25
随机事件的信息量
为了描述一个随机事件的信息量,定义了自信息。
自信息表示不确定性的程度。
一个事件确定发生,是没有信息量的;而一个事件发生的概率越小,则其信息量越大。
未知所带来的不确定性,就是自信息要描述的目标。
自信息:
notice:这里的自信息量并不代表信息作用的大小。一般以2为基底。
熵:自信息的期望。
所有可能情况的信息量的加权均值。(各种不确定情况的平均情况)
同时,熵可以表示系统或者变量的混乱程度,越混乱,熵越大。均匀分布时,熵最大。
熵在均匀分布时取得最大值,证明如下:
已知:
由拉格朗日法构造函数:
分别对
求得:
得证,熵当且仅当
在信息论与编码理论中,熵描述一个符号变量的可被编码的程度。
举个例子,计算自信息和熵。
其自信息为
其熵为
若对抽样样本,大概估计其熵和自信息。
其熵:
联合熵、互信息、条件熵、交叉熵、相对熵
两个随机变量的关系,可以用交叉熵、相对熵、联合熵和互信息来描述。
联合熵,
互信息,
条件熵,
条件熵的定义:
关系推导:
换个变量拆分,
交叉熵,
NOTICE, important In information theory, the cross entropy between two probability distributions p and q over the same underlying set of events measures the average number of bits needed to identify an event drawn from the set。
相对熵,
相互间关系:
交叉熵与相对熵的最值问题。
证明
1)直接求证
2)借助
2.1)
2.2)
2.3)
3)
4)
补充:交叉熵和最大似然的loss函数是一致的
交叉熵和最大似然的loss函数是一致的,在样本所属分类是唯一的情况下。
举例:最大似然对二分类而言:
等价于:
交叉熵对二分类而言:
对1式而言,
对2式而言,刚好
两者能够和谐统一的关键点是:样本所属类别是唯一的,
在多类下,若样本所属类别是唯一的,最大似然的loss与交叉熵的loss仍然是一致的。
似然函数可以写为:
可以看到,多分类下两者仍然是一致的。
2 0
- 有关熵的几个概念 及 最大似然和交叉熵的一致性
- 内存的分区及有关内存的几个概念
- 有关TS的几个概念
- 有关手机屏幕的几个概念
- 有关TS的几个概念
- 图像处理有关的几个概念、结构和类
- 关于最大似然与交叉熵损失函数和最小二乘法的思考
- 最大似然损失和交叉熵损失函数的联系
- VC++和VC++.NET中与图像处理有关的几个概念、结构和类
- VC++和VC++.NET中与图像处理有关的几个概念、结构和类
- 与频谱有关的几个谱的概念
- [ZT]有关电源的几个与功率相关的概念
- 有关CPU DSP MCU MPU的几个概念
- Subversion几个概念的要点及关系
- 和编译有关的几个方面
- 想起几个和老师有关的片段
- 几个有关进程和服务的命令
- 几个和 USB 有关的项目
- 基于Rxjava2的事件总线:Rxbus
- python基础学习之pickle模块
- VS2015 fatal error C1189: #error: Building MFC application with /MD[d]
- Eclipse中最常用的快捷键组合
- 面试小知识
- 有关熵的几个概念 及 最大似然和交叉熵的一致性
- 深入java final关键字 基本用法、注意点和优点
- 通过git describe --tags 查询当前branch是从那个tag建立的
- 闭包彻底学习
- vue 数据更新 视图不刷新
- Intellij IDEA怎么像Eclipse一样对Class成员进行排序
- spark提交任务端口占用异常
- 使用org.apache.commons.lang.StringUtils方法containsAny误区 看看你们遇到过没有
- C#里partial关键字的作用(转摘)