信息论笔记:离散信源与马尔可夫模型
2024信息论与编码原理期末复习
第一章:离散信源 (Discrete Sources)
1. 基本概念

信源的传输过程本质上是从符号集中抽取符号并发送。
- 自信息 (Self-information):表示某一具体符号的不确定性。
- 原理:符号发生的概率越低,其携带的信息量越大(不确定性越高)。
- 公式:I(xi)=−log2P(xi)
- 单位:bit (比特)
- 信源熵 (Source Entropy):信源的平均不确定性,即自信息的统计平均值。
- 公式:H(X)=E[I(xi)]=∑iP(xi)I(xi)=−∑iP(xi)log2P(xi)
- 性质:
- 极大性:当信源中各符号等概率分布时,熵达到最大值 Hmax=log2N(N 为符号个数)。
- 示例:对于二元信源 X={0,1},若 P=[2/3,1/3],则 H(2/3,1/3)<H(1/2,1/2)。任何使概率趋于均等化的变动都会增加信源熵。
2. 离散无记忆信源的扩展
- 定义:每次发送消息都互相独立,不受之前符号的影响。
- 概率表示:P(X1,X2,…,XN)=∏i=1NP(Xi)
- N次扩展信源 (XN):
- 符号数:若原信源有 n 个符号,则扩展信源有 nN 个复合符号。
- 扩展信源熵:H(XN)=N⋅H(X)
- 单位:bit / N 个信源符号
第二章:有记忆信源 (Sources with Memory)
1. 联合熵与条件熵
在有记忆信源中,符号之间存在关联。
-
条件概率:P(x∣y)=P(y)P(x,y) (已知 y 情况下 x 发生的概率)。
-
条件熵 (Conditional Entropy):H(X∣Y) 表示在已知 Y 的情况下,X 的不确定性。
-
联合熵 (Joint Entropy):H(X,Y)=H(Y)+H(X∣Y)=H(X)+H(Y∣X)

2. 马尔可夫信源 (Markov Sources)
马尔可夫信源是一种特殊的有记忆信源,当前状态只与前一个(或前 m 个)状态有关。

解题标准步骤 (SOP):
-
构建状态转移矩阵 P:
-
矩阵元素 Pij 表示从状态 Si 转移到状态 Sj 的概率。
-
每一行的概率之和必须为 1。
P=P11P21P31P12P22P32P13P23P33
-
判断平稳分布(各态历经性):
- 检查是否存在一个 n,使得 Pn 的每一项都非零。
-
求解稳态分布 w:
- 利用方程组:
- w=w⋅P
- ∑wi=1
- 其中 w=[w1,w2,w3] 代表各符号在长期运行下的概率。
-
计算极限熵 (Entropy Rate) H∞:
- H∞=∑iwiH(S∣S=si)
- 即各状态下的条件熵按稳态概率加权平均。
第三章:信源效率与冗余度
第四章:典型例题解析
例题 1:黑白气象传真图

信源 X={黑,白},已知 P(黑)=0.3,P(白)=0.7。
- 无关联情况: H(X)=−(0.3log20.3+0.7log20.7)≈0.88 bit/符号
- 有关联情况 (马尔可夫): 已知转移概率 P(b∣b)=0.8,P(w∣b)=0.2,P(b∣w)=0.1,P(w∣w)=0.9。
- 转移矩阵 P=[0.80.10.20.9]
- 解稳态方程:[w1,w2][0.80.10.20.9]=[w1,w2] 且 w1+w2=1。
- 解得:w1=1/3,w2=2/3。
- 计算 H∞=31H(0.8,0.2)+32H(0.1,0.9)≈0.55 bit/符号。
- 结论:符号间的依赖关系(记忆性)显著降低了信源熵(减少了不确定性)。
例题 2:二元独立信源
信源产生 0, 1 序列,P(0)=0.4,P(1)=0.6,无记忆。
- 平稳性:由于概率不随时间改变且互相独立,该信源是平稳的。
- 计算:
- H(X)=H(0.4,0.6)=0.97 bit/符号
- H(X2)=2⋅H(X)=1.94 bit/2个符号
- H(X3∣X1X2)=H(X)=0.97 (因无记忆,条件不起作用)。
- limN→∞HN(X)=H(X)=0.97。
- 扩展符号:X4 的可能符号包括从
0000 到 1111 共 16 种组合。