信息论与编码(二)| 自信息与信息熵

时间:2022-10-08 10:14:29

自信息

信息量

如何考察或计算信源输出的消息(或者符号)的信息量?

  • 信源的信息实质:不确定性(信源输出的是消息,消息的内涵是信息。信源输出一个符号,我们认为发生一个事件)。
  • 数学上我们用概率(或概率密度)来表征事件不确定性的大小。

1.信息量的大小与不确定性的消除多少有关;

收到某消息获得的信息量=不确定性的减少量=(收到该消息前关于某事件发生的不确定性)-(收到此消息后关于某事件发生的不确定性)

2.信道无噪声,收到某消息获得的信息量=收到该消息前关于某事件发生的不确定性=信源输出的某消息中所含的信息量。

3.概率小→不确定性大;概率大→不确定性小。

因此,某事件发生所含的信息量应该是该事件发生的先验概率的函数。

自信息定义

事件集合 信息论与编码(二)| 自信息与信息熵 中的事件 信息论与编码(二)| 自信息与信息熵 的自信息定义为信息论与编码(二)| 自信息与信息熵 或记为: 信息论与编码(二)| 自信息与信息熵

注意 1 : 要求 I(x) 非负. 所以对数的底数必须大于 1 .

  • 底数为 2 , 单位为比特 (bit) ;
  • 底数为 \mathrm{e} , 单位为奈特 (Nat);
  • 底数为 10 , 单位为笛特(Det)。

1 bit =0.693 Nat =0.301 Det

注意2: I(x) 是随机变量.

自信息的含义:

  • 在事件发生前, 自信息表示事件发生的不确定性。
  • 在事件发生后, 自信息表示事件所包含的信息量, 是提供给信宿的信息量, 也是解除这种不确定性所需要的信息量

联合自信息

联合事件集合 信息论与编码(二)| 自信息与信息熵 中的事件 信息论与编码(二)| 自信息与信息熵 的自信息定义为

信息论与编码(二)| 自信息与信息熵

其中, p(x y) 要满足非负和归一化的条件。

条件自信息

事件 信息论与编码(二)| 自信息与信息熵 在事件信息论与编码(二)| 自信息与信息熵 给定条件下的自信息定义为

信息论与编码(二)| 自信息与信息熵 -条件自信息的含义 -在事件信息论与编码(二)| 自信息与信息熵 给定条件下, 在信息论与编码(二)| 自信息与信息熵 发生前的不 确定性; -在事件 信息论与编码(二)| 自信息与信息熵 给定条件下, 在信息论与编码(二)| 自信息与信息熵 发生后所得到的信息量。

Example 3有8×8=64个方格,甲将一棋子放入方格中,让乙猜。 1、将方格顺序编号,让乙猜顺序号的难度程度如何? 2、将方格按行和列编号,当甲告诉乙方格的行号后,让乙猜列顺序号的难度如何?

信息论与编码(二)| 自信息与信息熵

-解:两种情况的不确定性:

信息论与编码(二)| 自信息与信息熵

信息熵

信源符号自信息的数学期望为信源的平均信息量一信息熵

信息论与编码(二)| 自信息与信息熵

注意: \mathbf{H}(\mathbf{X}) 是一个数, 不是随机变量.

Example 3 请计算下述离散无记忆二进制信源的信息熵。 Solution

信息论与编码(二)| 自信息与信息熵

信息熵的物理含义

1.信息熵H(X)表示信源输出后,每个消息(符号)所提供的平均信息量;

2.信息熵H(X)表示信源输出前,信源的平均不确定性;

3.用信息熵H(X)来表征变量X的随机性。

注:信息熵不等于平均获得的信息量。一般情况下获得的信息量是两熵之差,而不是信息熵本身。

Example4:

甲地天气预报,信息论与编码(二)| 自信息与信息熵 乙地天气预报 信息论与编码(二)| 自信息与信息熵 求:两地天气预报各自提供的平均信息量

解:

  • 信息论与编码(二)| 自信息与信息熵
  • 信息论与编码(二)| 自信息与信息熵 甲地提供的平均信息量大于乙地。

甲、乙地天气预报为两极端情况:

信息论与编码(二)| 自信息与信息熵

信息论与编码(二)| 自信息与信息熵

信息论与编码(二)| 自信息与信息熵

  • 信源是确定信源, 所以不存在不确定性, 信息熵等于零。

甲、乙地天气预报为两极端情况: 信息论与编码(二)| 自信息与信息熵

  • 这种情况下,信源的不确定性最大,信息熵最大
  • 甲地比乙地提供更多的信息量。因为甲地可能出现的消息数多于可能出现的消息数, 不确定性更大。

结论: 信源熵大于等于0(若信源输出为确定符号)而小于等于log(N)(信源输出的不确定性最大)。 0≤H(X)≤ log(N) 其中N为信源字符集元素的个数

Example 5 某信号带宽为4000Hz ,以奈奎斯特速率抽样。假设其抽样序列可以建模成一个字符集为A={-2,-1,0,1,2}的DMS,相应的概率为{1/2,1/4,1/8,1/16,1/16},求信源的速率(b/s)

信息论与编码(二)| 自信息与信息熵其中  信息论与编码(二)| 自信息与信息熵 为信息速率。 注:奈奎斯特抽样速率为 2 信息论与编码(二)| 自信息与信息熵