Methods for NER 利用規(guī)則(比如正則) 投票模型 (Majority Voting) baseline 利用分類模型非時序模型 邏輯回歸 SVM時序模型 :HM...
Methods for NER 利用規(guī)則(比如正則) 投票模型 (Majority Voting) baseline 利用分類模型非時序模型 邏輯回歸 SVM時序模型 :HM...
上一篇文章講到,如果數(shù)據(jù)是線性可分的,直接使用最大邊距作為目標(biāo)函數(shù),但是如果數(shù)據(jù)是線性不可分的情況下,該目標(biāo)函數(shù)是不可用的。那么如何處理線性不可分的情況呢?How to Cl...
回顧線性分類器 設(shè)D = {(x1,y1),(x2,y2),(x3,y3),......(xn,yn)},yi屬于{-1,1},i = 1,2,3......m@ = {w,...
先來看看高中學(xué)的導(dǎo)數(shù),就是一元函數(shù)的切線稱為導(dǎo)數(shù) 偏導(dǎo)數(shù)是針對多元函數(shù)的,我們以兩個自變量為例,z=f(x,y),從導(dǎo)數(shù)到偏導(dǎo)數(shù),也就是從曲線來到了曲面,曲線上的一點,其切線...
流網(wǎng)絡(luò)—最大流問題(Maximum-flow problem)image.png希望從0-7找到最大值,管道可以承載的最大值。 那么目標(biāo)函數(shù)是objective:maximi...
時間這東西真的是過的好快啊,不知不覺又過去了半個月了,現(xiàn)在已經(jīng)是五月中旬了。堅持是最好的證明。 那么我們回歸,如何優(yōu)化目標(biāo)函數(shù)?其實AI問題有個等式,AI問題 = 模型+優(yōu)化...
由之前的文章可知,目標(biāo)函數(shù)為了防止過擬合或者限制參數(shù),一般會加L1正則化和L2正則化,下面來介紹關(guān)于L1正則,Lasso正則,因為Lasso是可以進(jìn)行特征選擇降維的功能,L1...
如果一個數(shù)據(jù)集中有很多的特征,但是不是所有的特征都是對模型有作用,或者作用非常小時,我們就需要剔除,那么我們用上面技術(shù)去選擇特征呢? 第一種,窮舉法 把所有的特征組合都計算對...
今天睡了一下懶覺,九點半才起床,昨天吃火鍋熱氣,今天要吃清淡一點了。 使學(xué)過機(jī)器學(xué)習(xí)的人,對機(jī)器學(xué)習(xí)中的MLE(極大似然估計)、MAP(最大后驗估計)以及貝葉斯估計(Baye...
在之前我們一直討論的是一個超參數(shù)的情況,但是如果是有多個超參數(shù)如何計算是最優(yōu)的超參數(shù)呢? 比如邏輯回歸加了兩個正則(L1+L2正則項),那如何去計算這兩個正則的超參數(shù)呢?如果...
你悶聲的日子,后面就是你爆發(fā)的日子。 前面講過加入正則項的目標(biāo)函數(shù),那么如何求出超參數(shù)呢?如何選擇合適的超參數(shù)呢? 一般是通過交叉驗證cross validation(CV)...
今天好熱啊,30多°,也不知道這是什么神仙天氣哈哈哈 我們來看看什么叫模型的復(fù)雜度 由上面三個模型,你會選擇哪個呢,我會選擇第二個,為什么呢? 在訓(xùn)練的時候,雖然c模型效果最...
L1和l2正則化項,又叫懲罰項,是為了限制模型的參數(shù),防止模型過擬合而加在損失函數(shù)后面的一項 在前面的邏輯回歸的目標(biāo)函數(shù)中也加了L2正則,就是為了防止參數(shù)太大,防止過擬合。 ...
根據(jù)上一篇文章可知,根據(jù)梯度下降法可以求出參數(shù),但是求出的參數(shù)就是最好的模型呢?我也不知道,咱們下面看看一個問題 如果當(dāng)給定的數(shù)據(jù)線性可分的時候,邏輯回歸的參數(shù)會趨于無限大嗎...
堅持才是硬道理,剩下的交給時間 由上一篇文章得知,邏輯回歸的目標(biāo)函數(shù)已經(jīng)確定,現(xiàn)在是如何求出W,B的參數(shù)值。就相當(dāng)于構(gòu)建了模型。回顧一下,邏輯函數(shù)的目標(biāo)函數(shù)所以我們?nèi)绻笫?..
前面兩篇文章求出了函數(shù)和邏輯回歸是線性回歸,那模型還需要求出目標(biāo)函數(shù)的參數(shù),才可以供以后使用。也就是說,我們?nèi)绾吻蟪鯳和b的值呢? 求解W和b的過程其實也叫做《模型的實例化》...
后天就是五一了,時間過的真的好快啊。不知不覺一個月又過去,慶幸的是我今天我還在寫著,記錄著,重要的不是要多快,而是循序漸進(jìn)的投入學(xué)習(xí)中。 根據(jù)上一篇講關(guān)于邏輯回歸,得知邏輯回...
在前面的垃圾郵件分類中,可知貝葉斯起到了很好的作用,但是其是離散型的,效果就很好,對于連續(xù)型的特征,貝葉斯可以用高斯貝葉斯去實現(xiàn),就是數(shù)據(jù)特征服從正態(tài)分布。但是效果沒有離散型...