5.1 循環(huán)神經(jīng)網(wǎng)絡(luò)(時(shí)間序列) 循環(huán)神經(jīng)網(wǎng)絡(luò)(RNN)用于建模帶有時(shí)間關(guān)系的數(shù)據(jù)。它的架構(gòu)是這樣的。 在最基本的 RNN 中,單元(方框)中的...
投稿
5.1 循環(huán)神經(jīng)網(wǎng)絡(luò)(時(shí)間序列) 循環(huán)神經(jīng)網(wǎng)絡(luò)(RNN)用于建模帶有時(shí)間關(guān)系的數(shù)據(jù)。它的架構(gòu)是這樣的。 在最基本的 RNN 中,單元(方框)中的...
4.2 多層感知機(jī)回歸(時(shí)間序列) 這篇教程中,我們使用多層感知機(jī)來(lái)預(yù)測(cè)時(shí)間序列,這是回歸問(wèn)題。 操作步驟 導(dǎo)入所需的包。 導(dǎo)入數(shù)據(jù),并進(jìn)行預(yù)處...
4.1 多層感知機(jī)(分類(lèi)) 這篇文章開(kāi)始就是深度學(xué)習(xí)了。多層感知機(jī)的架構(gòu)是這樣: 輸入層除了提供數(shù)據(jù)之外,不干任何事情。隱層和輸出層的每個(gè)節(jié)點(diǎn)都...
遇到非線性可分的數(shù)據(jù)集時(shí),我們需要使用核方法,但為了使用核方法,我們需要返回到拉格朗日對(duì)偶的推導(dǎo)過(guò)程,不能簡(jiǎn)單地使用 Hinge 損失。 操作步...
將上一節(jié)的假設(shè)改一改,模型就可以用于回歸問(wèn)題。 操作步驟 導(dǎo)入所需的包。 導(dǎo)入數(shù)據(jù),并進(jìn)行預(yù)處理。我們使用鳶尾花數(shù)據(jù)集中的后兩個(gè)品種,根據(jù)萼片長(zhǎng)...
在傳統(tǒng)機(jī)器學(xué)習(xí)方法,支持向量機(jī)算是比較厲害的方法,但是計(jì)算過(guò)程非常復(fù)雜。軟間隔支持向量機(jī)通過(guò)減弱了其約束,使計(jì)算變得簡(jiǎn)單。 操作步驟 導(dǎo)入所需的...
1.4 Softmax 回歸 Softmax 回歸可以看成邏輯回歸在多個(gè)類(lèi)別上的推廣。 操作步驟 導(dǎo)入所需的包。 導(dǎo)入數(shù)據(jù),并進(jìn)行預(yù)處理。我們使...
1.3 邏輯回歸 將線性回歸的模型改一改,就可以用于二分類(lèi)。邏輯回歸擬合樣本屬于某個(gè)分類(lèi),也就是樣本為正樣本的概率。 操作步驟 導(dǎo)入所需的包。 ...
1.2 LASSO、嶺和 Elastic Net 當(dāng)參數(shù)變多的時(shí)候,就要考慮使用正則化進(jìn)行限制,防止過(guò)擬合。 操作步驟 導(dǎo)入所需的包。 導(dǎo)入數(shù)據(jù)...
1.1 線性回歸 線性回歸是你能用 TF 搭出來(lái)的最簡(jiǎn)單的模型。 操作步驟 導(dǎo)入所需的包。 導(dǎo)入數(shù)據(jù),并進(jìn)行預(yù)處理。我們使用鳶尾花數(shù)據(jù)集中的后兩...