2018年寫過tf保存為pb使用tfserving,現(xiàn)在發(fā)現(xiàn)tf2.0環(huán)境運(yùn)行不了了,于是重新研究下官方例子[https://github.co...
規(guī)律:第一個(gè)返回left 最后一個(gè)返回right,第一個(gè)題目有等號(hào)比較就有等號(hào),最后一個(gè)題目有等號(hào)比較就沒等號(hào) 理解:因?yàn)樽詈蟮奶鰲l件是sta...
最近看到推送,百度的開源詞法LAC2.0發(fā)布了,可增量訓(xùn)練適應(yīng)自己的數(shù)據(jù), 趕緊來試驗(yàn)下。git 模型是兩層的BI-GRU+CRF,隱藏層維度2...
NLPCC2020的任務(wù)三 考慮噪音標(biāo)注以及不全標(biāo)注信息的情況下來構(gòu)造信息抽取系統(tǒng)。當(dāng)給定實(shí)體類別,實(shí)體的一個(gè)列表,還有大量未標(biāo)注語料時(shí),我們?nèi)?..
輕量化網(wǎng)絡(luò),在實(shí)際上最有效。 全連接網(wǎng)絡(luò)里,多加一層,參數(shù)變少,相當(dāng)于中間壓縮了。 每個(gè)通道有個(gè)核,對(duì)應(yīng)卷積,再使用1×1卷積核,融合不同通道的...
用更少的bit來存參數(shù),(例如32個(gè)bit改成16個(gè)bit) 把參數(shù)分群,用更少的bit來代表參數(shù) 通過霍夫曼編碼,把出現(xiàn)頻率高的值用更少的bi...
先訓(xùn)練一個(gè)大模型,再訓(xùn)練一個(gè)小模型學(xué)習(xí)大模型的輸出。 大模型不僅學(xué)到了類別,還學(xué)到了類別之間相似的東西,比真實(shí)label更多信息,不知告訴這個(gè)圖...
李宏毅 network compression https://www.youtube.com/watch?v=dPp8rCAnU_A 因?yàn)楝F(xiàn)在...
記一個(gè)找了一整天的bug。keras-contrib 里面的crf loss 因?yàn)镃RF層定義的時(shí)候 self.crf = CRF(self.n...