一、相關(guān)概念
自信息
當概率越小,消息
出現(xiàn)的概率就越小,一旦出現(xiàn)所獲得的信息量就越大。
因此,我們定義,稱
為消息
的自信息量。
自信息用來衡量單一事件發(fā)生時所包含的信息量。
信息熵
信息熵:隨機變量所有可能取值的信息量的期望。
在信息論中,熵是信息不確定度的度量。不確定度越大,信息量越大,熵越大。
聯(lián)合熵
聯(lián)合熵是衡量隨機變量、
之間的不確定性。
條件熵
條件熵:在已知隨機變量的條件下,隨機變量
的不確定性。
條件熵=聯(lián)合熵-獨立熵,即。
交叉熵
交叉熵是衡量真實分布與模擬分布
之間的近似程度。
相對熵/信息散度/KL散度(Kullback-Leibler divergence)
相對熵/信息散度/KL散度(Kullback-Leibler divergence):衡量兩個概率分布之間的距離(差異)。
相對熵=交叉熵-獨立熵,即。
互信息
互信息:兩個隨機變量、
的聯(lián)合分布與獨立分布乘積的相對熵。
互信息是衡量兩個隨機變量之間的相關(guān)性。
二、互信息、聯(lián)合熵、相對熵、熵之間的關(guān)系

:知道
后
還剩多少信息。
:知道
后給
帶來了多少信息損失,
。
為方便記憶,可將聯(lián)合熵當做熵的并集,互信息當做熵的交集。