NMT 機(jī)器翻譯模型 在Assignment4,5中,進(jìn)一步理解encoder-decoder模型,并且認(rèn)識(shí)到在實(shí)現(xiàn)項(xiàng)目之前,要清楚的了解每一...
引言 命名實(shí)體識(shí)別(Named Entity Recognition,簡(jiǎn)稱NER),又稱作“專名識(shí)別”,是指識(shí)別文本中具有特定意義的實(shí)體,主要包...
Stanford / Winter 2020 CS224n 課程學(xué)習(xí)筆記02 根據(jù)統(tǒng)計(jì)學(xué),比如一句話:"我想吃X",根據(jù)訓(xùn)練文本,輸出最有可能出...
最近又回了爐石坑,正好趕上發(fā)布新版本,但是由于2年多沒玩落后了太多版本,這期間出了不少的卡牌,于是買了個(gè)預(yù)購(gòu)100包追一下版本(因?yàn)楦F沒舍得再買...
Pandas數(shù)據(jù)處理 這兩天在進(jìn)行數(shù)據(jù)預(yù)處理時(shí),發(fā)現(xiàn)在進(jìn)行預(yù)料喂入時(shí),總會(huì)出現(xiàn)錯(cuò)誤:ValueError: not enough values ...
前因 在尋找pytorch版本的英文版Bert預(yù)訓(xùn)練模型時(shí),發(fā)現(xiàn)只有中文版的預(yù)訓(xùn)練模型,而且因?yàn)門ensorflow和Pytorch在讀取預(yù)訓(xùn)練...
Attention Is All You Need閱讀論文筆記,論文內(nèi)提出了transformer模型 一、進(jìn)食前提 這里需要了解Encoder...
閱讀論文筆記:Neural Machine Translation by Jointly Learning to Align and Trans...
利用梯度下降擬合一元回歸學(xué)習(xí)筆記 讓我們以直線 y=2x+1 附近作散點(diǎn)圖,誤差內(nèi)上下浮動(dòng)。 因?yàn)殚_始時(shí),截距和斜率初始都為0,綠點(diǎn)為初始點(diǎn)的分...