信息论中的各种熵
来源:互联网 发布:手机制作报价单软件 编辑:程序博客网 时间:2024/06/01 11:26
本文简单介绍了信息论中的各种熵,包括自信息、熵;联合熵、条件熵、互信息;KL散度、交叉熵。并在最后用信息论中的交叉熵推导了逻辑回归,得到了和最大似然法相同的结果。
熵
熵是信息的关键度量,通常指一条信息中需要传输或者存储一个信号的平均比特数。熵衡量了预测随机变量的不确定度,不确定性越大熵越大。
针对随机变量
信息熵是信源编码中,压缩率的下限。当我们使用少于信息熵的信息量做编码,那么一定有信息的损失。
联合熵
联合熵是一集变量之间不确定的衡量手段。
条件熵
条件熵描述变量Y在变量X确定的情况下,变量Y的熵还剩多少。
联合熵和条件熵的关系是:
自信息
自信息表示概率空间中与单一事件或离散变量的值相关的信息量的量度。
平均的自信息就是信息熵。
互信息
两个随机变量的互信息,是变量间相互依赖性的量度,不同于相关系数,互信息不限于实值随机变量,其更加一般。
其意义为,若我们想知道Y包含多少X的信息,在尚未得到 Y之前,我们的不确定性是 H(X),得到Y后,不确定性是H(X|Y)。所以一旦得到Y后,我们消除了 H(X)-H(X|Y)的不确定量,这就是Y对X的信息量。
KL散度(信息增益)
KL散度,又称为相对熵(relative entropy)、信息散度(information divergence)、信息增益(information gain)。
KL散度是两个概率分布P和Q差别非对称性的度量。KL散度用来度量基于Q的编码来编码来自P的样本平均所需的额外的位元数。典型情况下,P表示数据的真实分布,Q表述数据的模型分布。
交叉熵
交叉熵衡量了在真实分布是P的情况的情况下,使用分布Q去编码数据,需要的平均比特。
交叉熵与逻辑回归的关系如下:
逻辑回归中:
qy=1=y^=g(wx) qy=0=1−y^=1−g(wx)
数据的真实分布中:
py=1=y py=0=1−y
因此,可以用交叉熵去衡量估计分布q与真实分布p的相似性,交叉熵越小那么越相似。
因此,损失函数为,得到了和最大似然推导相同的结果:
- 信息论中的各种熵
- 如何理解信息论中的各种熵?
- 解析信息论中的熵
- 信息论中的熵
- 解析信息论中的熵
- 熵在信息论中的解释
- 信息论,熵
- 信息论, 熵
- 信息论中的信息量
- 信息论中的概念集
- 信息论中的几个知识点
- 信息论中的一些基本知识
- 信息论中的不等式
- 用c编写求信息论中各种熵和信息量的程序
- 信息论、熵、决策树
- 熵_信息论
- 熵(信息论中)
- 信息论的熵
- MySQL连接eclipse(简单sql语言)
- 引爆点有感1
- myeclipse迁移到idea的问题
- 代码整洁之道精华——第六章 对象和数据结构
- 使用mysql workbench为远程访问创建用户
- 信息论中的各种熵
- 印象笔记使用(一)——微信篇
- C#访问MySQL数据库(winform+EF)
- Linux系统下部署项目常用命令
- 二叉树的中序遍历
- html5 manifest 离线缓存
- tracert命令介绍
- IO流
- 该文件包含不能在当前代码页(936)中表示的字符。