信息熵
来源:互联网 发布:百分百qq综合采集软件 编辑:程序博客网 时间:2024/06/10 03:35
某事件的发生概率越小,表示这个事件的不确定性越高,这种不确定性定义为信息量( amount of information),即概率越小,事件的信息量越大。通常用公式
表示事件
定义熵( entropy)为信息量的期望:
熵是随机变量不确定性的度量,不确定性越大,熵值越大,当随机变量均匀分布的时候熵值最大,当随机变量为定值时的熵值最小,为0.
熵的范围:
相对熵:设
相对熵可用于度量两个随机变量的“距离”。
互信息,定义为联合分布于独立分布乘积的相对熵 :
条件熵:
几个概念可借助韦恩图可帮忙理解,如下: