分類任務的損失函數(shù):cross_entropy

交叉熵函數(shù)cross_entropy()是Shannon信息論中一個重要概念,主要用于度量兩個概率分布間的差異性信息。在信息論中,交叉熵用于度量兩個概率分布p,q的相似性,其中p表示真實分布,q表示非真實分布;

在深度學習的分類任務中:交叉熵對比了模型的預測結果和數(shù)據(jù)的真實標簽,隨著預測越來越準確,交叉熵的值越來越小,如果預測完全正確,交叉熵的值就為0。因此,訓練分類模型時,可以使用交叉熵作為損失函數(shù)。
深度學習中的交叉熵函數(shù)

其輸入是One-hot編碼的標簽和Softmax函數(shù)的輸出S(Y)。線性層FC的輸出為y,即logit。
x > y > softmax(y) -> cross_entropy(softmax(y), one-hot labels)

Cross_entropy函數(shù)用于衡量兩個向量的距離(相似度),在深度學習中,即預測值的概率輸出向量和標簽值的One-hot編碼向量的相似度,越相似,cross_entropy函數(shù)的輸出值越小。
cross_entropy函數(shù)

cross_entropy函數(shù)使用范例

Binary Cross-Entropy: Cross-entropy 作為二分類任務的損失函數(shù)
Categorical Cross-Entropy: Cross-entropy 作為多分類任務的損失函數(shù)
在交叉熵使用實踐中:如果平均交叉熵小于0.2,那么是一個良好的開端;小于0.1或0.05甚至更好??梢詫⑵骄膘氐倪@些直覺總結如下:

  • 交叉熵= 0.00:完美匹配。
  • 交叉熵<0.02:相當不錯。
  • 交叉熵<0.05:在正確的軌道上。
  • 交叉熵<0.20:很好。
  • 交叉熵> 0.30:不好。
  • 交叉熵> 1.??00:太糟糕了。
  • 交叉熵> 2.00:東西壞了
?著作權歸作者所有,轉載或內(nèi)容合作請聯(lián)系作者
【社區(qū)內(nèi)容提示】社區(qū)部分內(nèi)容疑似由AI輔助生成,瀏覽時請結合常識與多方信息審慎甄別。
平臺聲明:文章內(nèi)容(如有圖片或視頻亦包括在內(nèi))由作者上傳并發(fā)布,文章內(nèi)容僅代表作者本人觀點,簡書系信息發(fā)布平臺,僅提供信息存儲服務。

相關閱讀更多精彩內(nèi)容

友情鏈接更多精彩內(nèi)容