背景:針對(duì)聲學(xué)模型的調(diào)研,時(shí)間2019年8月 Speech Recognition on LibriSpeech test-other 1.google的語音識(shí)別技術(shù)(LAS...
背景:針對(duì)聲學(xué)模型的調(diào)研,時(shí)間2019年8月 Speech Recognition on LibriSpeech test-other 1.google的語音識(shí)別技術(shù)(LAS...
2019年5月24日 星期五 晴 烏鎮(zhèn) 現(xiàn)代·木心寫了一首詩《從前慢》,昨天到了烏鎮(zhèn),感覺這首詩就是為這個(gè)小鎮(zhèn)所作的。詩是這樣寫的: 記得早先少年時(shí) 大家誠誠懇懇 說一...
本文為通過文末的學(xué)習(xí)內(nèi)容學(xué)習(xí)后記錄的部分學(xué)習(xí)摘要 LightGBM的提出 常用的機(jī)器學(xué)習(xí)算法,例如神經(jīng)網(wǎng)絡(luò)等算法,都可以以mini-batch(小批量數(shù)據(jù))的方式訓(xùn)練,訓(xùn)練數(shù)...
Natural Gradient DescentScore functionFisher Information MatrixKL 散度KL 散度的二階 Hessian 陣N...
今天我繼續(xù)來介紹一個(gè)Anchor-Free新的算法(它是基于密集采樣的AF),這個(gè)文章我看下來個(gè)人覺得非常有意思。因?yàn)樗鼘⒄Z義分割的思想用來做檢測(cè)了。在學(xué)校期間,我的研究方向...
本章涉及到的知識(shí)點(diǎn)清單:1、boosting模式2、集成學(xué)習(xí)模型的偏差和方差3、bagging的偏差和方差4、boosting的偏差和方差5、XGBoost的基礎(chǔ)模型6、XG...
摘要 通過雙向文本預(yù)訓(xùn)練模式,以BERT為代表的基于自編碼(autoencoding)的預(yù)訓(xùn)練模型在各類任務(wù)上表現(xiàn)突出,超越了傳統(tǒng)的單向訓(xùn)練的自回歸(autoregressi...