信息理论-信源及信源熵

来源:互联网 发布:淘宝店铺dsr计算公式 编辑:程序博客网 时间:2024/04/28 15:52

1.1信源和信源的不确定性
信源发出消息,经过信道到达信宿,信宿收到消息,获得了信息,这个过程就称作通信。

  • 1.1不确定性的概念
    (1)离散信源:若一类信源输出的消息常常是以一个个符号的形式的出现,符号的取值是离散可数的,这样的信源称为离散信源。
    (2)消息是以一定的概率出现的,所以可以采用概率空间来描述。
    信源的不确定程度与概率空间的消息数和消息的概率分布有关。
    信源的消息为等概率分布时,不确定程度最大
    信源的消息为等概率分布,且其消息数目越多,其不确定程度越大。
    只发送一个消息的信源,其不确定程度为0,不发送任何信息

    1.1.2 信源不确定度的定义
    概率倒数的对数来度量信源的不确定度,即:
    H(X)=log(1/p)=-log p
    I(xi)=logp(xi) 表示信源输出一个消息xi所提供的信息量
    1.1.3 信息度量

    • 自信息量

         $I(x_{i})=-log p(x_{i})$
    • 联合信息量
      I(xiyi)=log2p(xiyi)
    • 互信息量
      I(信息量)=不肯定程度的减小量
      xiyi
      I(yi;xi)=log2p(yi/xi)p(yj)=I(yj)I(yj/xi) (i=1,2….n;j=1,2…m)

1.2、信息熵
信息熵是平均信息量的测度指标。如果某输入变量只有一个取值,也就是所有样本在该变量上去相同的值,没有差异,那么这个输入变量事实上并没用给输入变量的分类预测带来任何有意义的信息,可认为它所提供的信息量是0.因此,信息量的多少代表了变量取值差异的程度,信息熵是分类型变量取值差异性的测度指标。
计算公式:
h(x)=E[I(xi)]=E[log21p(xi)]=Ni=1P(xi)log2p(xi)(i=1,2,3....n)
1.3 平均互信息量
I(X;Y)=ni=1mj=1P(xiyj)I(xi;yj)=ni=1mj=1P(xiyj)log2p(xi/yj)p(xi)=ni=1mj=1P(xiyj)log2p(xiyj)p(xi)p(yj)
I(X;Y)=ni=1mj=1P(xiyj)log2p(xiyj)p(xi)p(yj)=ni=1mj=1p(xiyj)log21p(xi)ni=1mj=1p(xiyj)log21p(xi/yj)=H(X)-H(X/Y)

0 0
原创粉丝点击