信息量与熵笔记
来源:互联网 发布:最好的猫粮 知乎 编辑:程序博客网 时间:2024/06/05 15:27
主要是学习七月算法熵与信息量所作的一些笔记,当然也参考了一些博客,这里对他们表示衷心的感谢!
自信息
如果说概率p是对确定性的度量,那么信息就是对不确定性的度量。
I(x) = -log(p(x))
如果两个事件X和Y独立,即p(xy)=p(x)p(y),假定X和Y的信息量分别为I(x)和I(y),则二者同时发生的信息量应该为
如果两个事件X和Y独立,即p(xy)=p(x)p(y),假定X和Y的信息量分别为I(x)和I(y),则二者同时发生的信息量应该为
I(x^y)=I(x)+I(y)
信息熵:自信息的期望
信息熵的公式:
同时信息熵也反应了一个系统的有序化程度,一个系统越是有序,那么它的信息熵就越低,反之越高。
联合熵
两个随机变量X,Y的联合分布,可以形成联合熵Joint Entropy,用H(X,Y)表示。
条件熵
条件熵的计算公式:
H(X,Y) – H(Y)
(X,Y)发生所包含的熵,减去Y单独发生包含的熵:在Y发生的前提下,X发生“新”带来的熵。该式子定义为Y发生前提下,X的熵:H(X|Y)。
条件熵公式的推导:
KL(Kulback-Leible)散度:
kL散度也称互熵,相对熵,鉴别信息。KL散度是衡量两个分布的距离。
设P(x)和q(X)是X取值的两个概率分布,则P对q的KL散度为:
KL散度的性质:
(1)尽管KL散度从直观上是个度量或距离函数,但它并不是一个真正的度量或者距离,因为它不具有对称性,即
(2)相对熵的值为非负值,即
在证明之前,需要认识一个重要的不等式,叫做吉布斯不等式。内容如下
互信息(信息增益)
定义:i(y,x)=i(y)-i(y|x)=log(p(y|x)/p(y))
在信号与系统中,互信息表示为收信者收到信息x后,对信源发Y的不确定性的消除,实际上我们更关心不确定性的减少。
互信息的另外一种表示:
互信息的对称性:
平均互信息:
决策树中的“信息增益”其实就是平均互信息I(X,Y)。
条件熵与平均互信息的关系:
以上是公式对二者关系的表示,下面的图则更形象和直观。
从上面的图中可以清楚的看出互信息I(X,Y)的不同表示方法。
各个熵之间的关系:
参考文献:
http://blog.csdn.net/haolexiao/article/details/70142571
http://blog.csdn.net/acdreamers/article/details/44657745
阅读全文
0 0
- 信息量与熵笔记
- 信息量与熵
- 熵与信息量的理解
- 图像熵和信息量
- 信息熵,信息量
- ucos ii学习笔记2 邮箱&&信息量
- 信息量, 信息熵, 交叉熵, KL散度
- 关于 信息熵/信息量/信息论/信息增益
- 线性回归、岭回归、逻辑回归、信息量与熵、多类的分类问题softmax、链式法则与BP神经网络
- 6.信息论(一):信息量、熵和最优编码
- 存贮信息量
- Feature Selection(特征提取) 单纯高信息量unigram与参考情感词典词汇对比
- 信息量、熵、最大熵、联合熵、条件熵、相对熵、互信息
- 【机器学习】信息量,信息熵,交叉熵,KL散度和互信息(信息增益)
- 用c编写求信息论中各种熵和信息量的程序
- 信息论中的信息量
- 关于信息量的压缩
- 感慨二维码的信息量!
- Cannot resolve classpath entry: D:Developdevelop_jarwebmysql-connector-java-5.1.30.jar
- matlab的Regionprops详解
- 用Python的PIL模块进行基本的图像操作
- ###Jsp+Servlet购物商城day02.3:分页显示商品
- 关于格雷码在 FPGA 程序调试中的应用
- 信息量与熵笔记
- 关于"Ueditor 请求后台配置项http错误,上传功能将不能正常使用"的解决办法
- Java中数组的特性
- linux安装jdk1.8出现错误bash: export JAVA_HOME=/usr/local/java/jdk1.8.0_144: 没有那个文件或目录
- Eclipse鼠标悬停某方法调用上的描述,显示图片和提示样式
- RabbitMQ安装及高可用
- 【DIY】远程手机遥控车 androidbot
- MySQL的JOIN(三):JOIN优化实践之内循环的次数
- iPhone X 苹果官方人机交互指南 手动翻译