序 交叉熵?fù)p失是分類任務(wù)中的常用損失函數(shù),但是是否注意到二分類與多分類情況下的交叉熵形式上的不同呢?本次記錄一下二者的不同。 兩種形式 這兩個(gè)都是交叉熵?fù)p失函數(shù),但是看起來長(zhǎng)...
序 交叉熵?fù)p失是分類任務(wù)中的常用損失函數(shù),但是是否注意到二分類與多分類情況下的交叉熵形式上的不同呢?本次記錄一下二者的不同。 兩種形式 這兩個(gè)都是交叉熵?fù)p失函數(shù),但是看起來長(zhǎng)...
如果兩個(gè)item的id的維度不同的話,怎么一起訓(xùn)練呢
推薦系統(tǒng)遇上深度學(xué)習(xí)(三十六)--Learning and Transferring IDs Representation in E-commerce本文介紹的文章題目為《Learning and Transferring IDs Representation in E-commerce》,下載地址為:https://ar...
本文將通過細(xì)節(jié)剖析以及代碼相結(jié)合的方式,來一步步解析Attention is all you need這篇文章。 這篇文章的下載地址為:https://arxiv.org/a...
研究生三年,作為一名非計(jì)算機(jī)專業(yè)的學(xué)生,能夠從一名純小白(Python不會(huì),機(jī)器學(xué)習(xí)沒聽說過)到最后校招拿到幾個(gè)不錯(cuò)的offer,個(gè)人感覺可以給自己打個(gè)及格分吧。寫本文的目的...
embedding大家都不陌生,在我們的模型中,只要存在離散變量,那么一般都會(huì)用到embedding操作。今天這篇,我們將按以下的章節(jié)來介紹TF中的embedding操作。 ...
第一個(gè)問題:我們知道在個(gè)性化推薦系統(tǒng)里,第一個(gè)環(huán)節(jié)一般是召回階段,而召回階段工業(yè)界目前常規(guī)的做法是多路召回,每一路召回可能采取一個(gè)不同的策略。那么打破常規(guī)的思考之一是:是否我...
看題目,相信大家都知道本文要介紹的便是經(jīng)典的Youtube的深度學(xué)習(xí)推薦系統(tǒng)論文《Deep Neural Networks for YouTube Recommendatio...
遞歸在解決某些問題的時(shí)候使得我們思考的方式得以簡(jiǎn)化,代碼也更加精煉,容易閱讀。那么既然遞歸有這么多的優(yōu)點(diǎn),我們是不是什么問題都要用遞歸來解決呢?難道遞歸就沒有缺點(diǎn)嗎?今天我們...
一般深度學(xué)習(xí)沒有使用二階的優(yōu)化算法把
神經(jīng)網(wǎng)絡(luò)訓(xùn)練Trick神經(jīng)網(wǎng)絡(luò)構(gòu)建好,訓(xùn)練不出好的效果怎么辦?明明說好的擬合任意函數(shù)(一般連續(xù))(為什么?可以參考Neural Network and Deep Learning),說好的足夠多的...
本文簡(jiǎn)單介紹 Keras 的兩個(gè) Backend,也就是Keras基于什么東西來做運(yùn)算。Keras 可以基于兩個(gè)Backend,一個(gè)是 Theano,一個(gè)是 Tensorfl...
這篇文章提出了一種對(duì)那些用熱力圖解釋神經(jīng)網(wǎng)絡(luò)分類依據(jù)方法的效果進(jìn)行客觀比較的方法。而不是人主觀的去肉眼比較,用到的數(shù)據(jù)集是SUN397,ILSVRC2012,MITPlace...
名字的由來 Siamese和Chinese有點(diǎn)像。Siam是古時(shí)候泰國(guó)的稱呼,中文譯作暹羅。Siamese也就是“暹羅”人或“泰國(guó)”人。Siamese在英語中是“孿生”、“連...
http://shixialiu.com/publications/cnnvis/demo/ 百度開發(fā)的框架paddlepaddle visualDL