CrossEntropyLoss in Pytorch

in mathematics

  • softmax function (normalized exponential function)
    softmax(Q) = \frac{e^{Q}}{\sum_i e^{Q_i}}

  • cross entropy
    H(P,Q) =- \sum_y P(y) \log{Q(y)}

in pytorch

  • NLLLoss
    L(P,Q) = - \sum_y P(y)Q(y)

  • cross entropy loss
    \begin{aligned} CrossEntropyLoss(P,Q) &= H(P, softmax(Q)) \\ &= - \sum_y P(y) \log (softmax(Q(y))) \\ &= NLLLoss(P, logSoftmax(Q)) \end{aligned}
    doc : This criterion combines nn.LogSoftmax() and nn.NLLLoss() in one single class.

import torch
import torch.nn.functional as F

output = torch.randn(3, 5, requires_grad=True)
target = torch.tensor([1, 0, 4])


y1 = F.cross_entropy(output,target)
y2 = F.nll_loss(F.log_softmax(output,dim=1), target)

# y1 == y2
print(y1)
print(y2)
?著作權(quán)歸作者所有,轉(zhuǎn)載或內(nèi)容合作請(qǐng)聯(lián)系作者
【社區(qū)內(nèi)容提示】社區(qū)部分內(nèi)容疑似由AI輔助生成,瀏覽時(shí)請(qǐng)結(jié)合常識(shí)與多方信息審慎甄別。
平臺(tái)聲明:文章內(nèi)容(如有圖片或視頻亦包括在內(nèi))由作者上傳并發(fā)布,文章內(nèi)容僅代表作者本人觀點(diǎn),簡(jiǎn)書(shū)系信息發(fā)布平臺(tái),僅提供信息存儲(chǔ)服務(wù)。

相關(guān)閱讀更多精彩內(nèi)容

  • 呆呆獸大危機(jī) 我來(lái)到了檜皮市,剛來(lái)到道館前,只見(jiàn)上面貼了一個(gè)牌子,寫(xiě)著“本道館關(guān)門(mén)”這五個(gè)大字。 ...
    小迦QAQ閱讀 186評(píng)論 0 0
  • 人成長(zhǎng)的代價(jià)是什么? 人成長(zhǎng)的目的是什么? J先生正在被這些問(wèn)題困擾,隨著時(shí)間的流逝,曾經(jīng)有幾年對(duì)J先生來(lái)說(shuō)成長(zhǎng)似...
    筆???/span>閱讀 327評(píng)論 0 7
  • 偶爾熬夜看電影,偶爾懶床,這就是生活(PS:工地狗沒(méi)有周末???( ˊ?ˋ )???)
    劉阿莫閱讀 329評(píng)論 9 4

友情鏈接更多精彩內(nèi)容