記錄一下備用:使用https://github.com/hellohaptik/multi-task-NLP/[https://github.c...
數(shù)據(jù)集 RACE數(shù)據(jù)集 RACE: Large-scale ReAding Comprehension Dataset From Examina...
下載地址 https://www.cs.cmu.edu/~glai1/data/race/ 論文地址 Race: Large-scale rea...
下載地址 https://allenai.org/data/sciq 論文地址 Crowdsourcing multiple choice sc...
背景 相關(guān)前置背景知識見博客:http://www.itdecent.cn/p/d11cb1fe1201 HMM三個問題回顧 1.狀態(tài)問題:已...
集成學習 著重于在訓練集上做文章:將訓練集劃分為各種子集或權(quán)重變換后用較弱的基模型擬合,然后綜合若干個基模型的預測作為最終整體結(jié)果。 兩種算法:...
支持向量機 最初用于解決線性問題,加入核方法后可以用于解決非線性問題。能適應“小樣本數(shù)量、高特征維度”問題,甚至是特征維度大于樣本數(shù)量的情況。目...
梯度下降 用于迭代求解函數(shù)最優(yōu)解,是大數(shù)據(jù)領(lǐng)域用于求解問題的常用思想。步長:每一步梯度下降時向目標方向前進的長度。前期可以使用較大步長,加快訓練...
線性回歸 OLS、Ridge、Lasso的優(yōu)缺點對比:OLS 最小二乘法:優(yōu)點:計算方便(套入公式即可) 缺點:數(shù)據(jù)維度越高,參數(shù)值越大、更容易...