Tensorflow的sparse_softmax_cross_entropy_with_logits函數(shù)

softmax_cross_entropy_with_logits:

首先看輸入logits,它的shape是[batch_size, num_classes] ,一般來講,就是神經(jīng)網(wǎng)絡最后一層的輸入z

另外一個輸入是labels,它的shape也“應該是“”[batch_size, num_classes],就是我們神經(jīng)網(wǎng)絡期望的輸出。

sparse_softmax_cross_entropy_with_logits

放寬了限制,labels參數(shù)只要是[batch_size]就可以,這樣的話就是shape=(batch_size,)是[1,batch_size]的一維數(shù)組就行了,函數(shù)內(nèi)部會轉換以及one_hot來實現(xiàn)softmax_cross_entropy_with_logits計算

最后編輯于
?著作權歸作者所有,轉載或內(nèi)容合作請聯(lián)系作者
【社區(qū)內(nèi)容提示】社區(qū)部分內(nèi)容疑似由AI輔助生成,瀏覽時請結合常識與多方信息審慎甄別。
平臺聲明:文章內(nèi)容(如有圖片或視頻亦包括在內(nèi))由作者上傳并發(fā)布,文章內(nèi)容僅代表作者本人觀點,簡書系信息發(fā)布平臺,僅提供信息存儲服務。

相關閱讀更多精彩內(nèi)容

友情鏈接更多精彩內(nèi)容