信息熵 Information entropy
對于離散的隨機變量,首先定義其自信息
,它應(yīng)該有以下兩個特點:
-
應(yīng)該依賴于概率分布
,是
的單調(diào)函數(shù)
- 觀察兩個事件同時發(fā)生時獲得的信息量應(yīng)該等于觀察到事件各自發(fā)生時獲得的信息之和,即
,同時滿足
基于上述特點,可定義,負號保證
。
熵表示對所有可能發(fā)生的事件產(chǎn)生的信息量的期望:
聯(lián)合熵 Joint entropy
條件熵 Conditional entropy
相對熵 Relative entropy,也稱為KL散度
分布的最佳信息傳遞方式來傳達分布
,比用分布
自己的最佳信息傳遞方式來傳達分布
,平均多耗費的信息長度為相對熵
設(shè)是離散隨機變量
中取值
的兩個概率分布:
KL散度是不對稱的,即。JS散度解決KL不對稱問題。
交叉熵 Cross entropy
用分布的最佳信息傳遞方式來傳達分布
中隨機抽選的一個事件,所需的平均信息長度為交叉熵
互信息 mutual information
一個隨機變量中包含的關(guān)于另一個隨機變量的信息量,或者說是一個隨機變量由于已知另一個隨機變量而減少的不肯定性