1、FM背景 在計(jì)算廣告和推薦系統(tǒng)中,CTR預(yù)估(click-through rate)是非常重要的一個(gè)環(huán)節(jié),判斷一個(gè)商品的是否進(jìn)行推薦需要根據(jù)CTR預(yù)估的點(diǎn)擊率來(lái)進(jìn)行。在進(jìn)...
1、FM背景 在計(jì)算廣告和推薦系統(tǒng)中,CTR預(yù)估(click-through rate)是非常重要的一個(gè)環(huán)節(jié),判斷一個(gè)商品的是否進(jìn)行推薦需要根據(jù)CTR預(yù)估的點(diǎn)擊率來(lái)進(jìn)行。在進(jìn)...
hiredis的使用 標(biāo)簽(空格分隔): Linux 作業(yè)部落地址:https://www.zybuluo.com/LIUHUAN/note/364481 1.hiredis...
影評(píng)類(lèi)網(wǎng)站(豆瓣,IMDB),資訊網(wǎng)站(hacker news),問(wèn)題回答網(wǎng)站(知乎,stackoverflow),視頻網(wǎng)站(騰訊視頻,愛(ài)奇藝,優(yōu)酷)都會(huì)使用熱榜,吸引用戶(hù)來(lái)...
現(xiàn)在有更簡(jiǎn)單的方式了,要使用tensorflow.python.keras
model.save('model/keras_model/1', save_format='tf')
保存keras模型為pbkeras的模型如果要發(fā)布成tfserving,也需要保存為pb格式 之后就可以像tf模型一樣直接用tfserving了
2018年寫(xiě)過(guò)tf保存為pb使用tfserving,現(xiàn)在發(fā)現(xiàn)tf2.0環(huán)境運(yùn)行不了了,于是重新研究下官方例子[https://github.com/tensorflow/se...
K-Means算法 k-均值算法(K-Means算法)是一種典型的無(wú)監(jiān)督機(jī)器學(xué)習(xí)算法,用來(lái)解決聚類(lèi)問(wèn)題。 算法流程 K-Means聚類(lèi)首先隨機(jī)確定 K 個(gè)初始點(diǎn)作為質(zhì)心(這也...
規(guī)律:第一個(gè)返回left 最后一個(gè)返回right,第一個(gè)題目有等號(hào)比較就有等號(hào),最后一個(gè)題目有等號(hào)比較就沒(méi)等號(hào) 理解:因?yàn)樽詈蟮奶鰲l件是start > right, 也就是...
BERT 在訓(xùn)練的過(guò)程中使用了 Masked Language Model (MLM),隨機(jī)遮擋一些單詞,并對(duì)這些單詞進(jìn)行預(yù)測(cè),BERT 訓(xùn)練的需要大量的計(jì)算量。ELECTR...
剛才看了下soft相關(guān)的代碼是最近提交的,我看的時(shí)候還只有hard部分的代碼
ner論文筆記:Better Modeling of Incomplete Annotations for Named Entity RecognitionNLPCC2020的任務(wù)三 考慮噪音標(biāo)注以及不全標(biāo)注信息的情況下來(lái)構(gòu)造信息抽取系統(tǒng)。當(dāng)給定實(shí)體類(lèi)別,實(shí)體的一個(gè)列表,還有大量未標(biāo)注語(yǔ)料時(shí),我們?nèi)绾卧O(shè)計(jì)改進(jìn)算法來(lái)構(gòu)建一個(gè)信息抽...
梯度爆炸是深度學(xué)習(xí)中十分常見(jiàn)的現(xiàn)象,有時(shí)會(huì)導(dǎo)致尋優(yōu)過(guò)程不收斂,或者算出來(lái)的結(jié)果干脆直接溢出,例如在Python里都是Nan,使迭代無(wú)法繼續(xù)下去。TensorFlow里提供了一...
最近看到推送,百度的開(kāi)源詞法LAC2.0發(fā)布了,可增量訓(xùn)練適應(yīng)自己的數(shù)據(jù), 趕緊來(lái)試驗(yàn)下。git 模型是兩層的BI-GRU+CRF,隱藏層維度256詞向量維度128,優(yōu)化器S...
基于隨機(jī)梯度下降(SGD)的優(yōu)化算法在科研和工程的很多領(lǐng)域里都是極其核心的。很多理論或工程問(wèn)題都可以轉(zhuǎn)化為對(duì)目標(biāo)函數(shù)進(jìn)行最小化的數(shù)學(xué)問(wèn)題。 按吳恩達(dá)老師所說(shuō)的,梯度下降(Gr...
在為代碼添加一個(gè)新功能的時(shí)候你會(huì)怎么做?(從git的操作順序來(lái)說(shuō)) 如果是我的話(huà),順序如下: 先是使用git checkout -b ,來(lái)新建一個(gè)新的分支,然后開(kāi)始按照自己提...
NLPCC2020的任務(wù)三 考慮噪音標(biāo)注以及不全標(biāo)注信息的情況下來(lái)構(gòu)造信息抽取系統(tǒng)。當(dāng)給定實(shí)體類(lèi)別,實(shí)體的一個(gè)列表,還有大量未標(biāo)注語(yǔ)料時(shí),我們?nèi)绾卧O(shè)計(jì)改進(jìn)算法來(lái)構(gòu)建一個(gè)信息抽...
輕量化網(wǎng)絡(luò),在實(shí)際上最有效。 全連接網(wǎng)絡(luò)里,多加一層,參數(shù)變少,相當(dāng)于中間壓縮了。 每個(gè)通道有個(gè)核,對(duì)應(yīng)卷積,再使用1×1卷積核,融合不同通道的特征。 與原始cnn對(duì)比,感受...
用更少的bit來(lái)存參數(shù),(例如32個(gè)bit改成16個(gè)bit) 把參數(shù)分群,用更少的bit來(lái)代表參數(shù) 通過(guò)霍夫曼編碼,把出現(xiàn)頻率高的值用更少的bit來(lái)表示 只用正一負(fù)一兩個(gè)值來(lái)...
先訓(xùn)練一個(gè)大模型,再訓(xùn)練一個(gè)小模型學(xué)習(xí)大模型的輸出。 大模型不僅學(xué)到了類(lèi)別,還學(xué)到了類(lèi)別之間相似的東西,比真實(shí)label更多信息,不知告訴這個(gè)圖片是1,還告訴它和7/9很像。...
李宏毅 network compression https://www.youtube.com/watch?v=dPp8rCAnU_A 因?yàn)楝F(xiàn)在訓(xùn)練出來(lái)的模型過(guò)多參數(shù)的,所以...