Python中的信息论度量:互信息(Mutual Information)与条件熵的计算与应用

好的,我们开始今天的讲座,主题是Python中的信息论度量:互信息(Mutual Information)与条件熵的计算与应用。 信息论基础回顾 在深入互信息和条件熵之前,我们先简要回顾一些信息论的基础概念。 信息量 (Self-Information): 描述一个事件发生所带来的信息量。一个不太可能发生的事件发生时,带来的信息量越大。 公式:I(x) = -log P(x),其中P(x)是事件x发生的概率。对数的底通常是2,此时信息量的单位是比特 (bit)。 熵 (Entropy): 描述一个随机变量不确定性的度量。熵越大,随机变量的不确定性越高。 公式:H(X) = – Σ P(x) log P(x),其中求和是对随机变量X的所有可能取值进行的。 联合熵 (Joint Entropy): 描述两个随机变量共同的不确定性。 公式:H(X, Y) = – Σ Σ P(x, y) log P(x, y),其中求和是对随机变量X和Y的所有可能取值组合进行的。 条件熵 (Conditional Entropy): 描述在已知一个随机变量的值的情况下,另一个随机变量的 …