本文集是本人在coursera上學(xué)習(xí)吳恩達(dá)-機(jī)器學(xué)習(xí)的筆記。相關(guān)說明會在這一頁上更新。 課程主頁https://www.coursera.org...
一、引子 對于非線性的分類問題,當(dāng)自變量較多的時候,用之前的回歸的方法就會非常復(fù)雜,因為在我們要擬合的函數(shù)項的可能性會爆炸。例如,如果我們有10...
過擬合 特征多了,模型對當(dāng)前的樣本高度擬合,但一旦換一組樣本,會出現(xiàn)極大的偏差。我們?nèi)绾谓鉀Q過擬合的問題呢? 減少特征(人為選擇或者利用算法模型...
多分類的例子: 郵件標(biāo)簽:工作、家庭、興趣愛好... 身體狀況:健康、亞健康、患病... ...用圖表示:二元分類多分類我們已經(jīng)知道了對于二元分...
一、代價函數(shù) 我們希望獲得凸(convex)函數(shù),這樣的函數(shù)有更好的收斂性。因此我們不能直接使用之前線性回歸用的代價函數(shù)。 當(dāng)y=1時,有:h→...
假設(shè)函數(shù)的表達(dá)式 邏輯回歸模型 我們希望 0≤h≤1,可以設(shè)h=g(θ.T x)令g(z)=1/(1+e^(-z))這個函數(shù)g叫做sigmoid...
〇、數(shù)學(xué)表示 n: 特征量的維度 下圖表示第i個樣本的特征向量的第j個特征分量 h(x)=θ0x0+θ1x1+θ2x2+θ3x3+...+θnx...
梯度下降在整個機(jī)器學(xué)習(xí)中都很重要 〇、問題回顧 找到θ0、θ1,最小化代價函數(shù)J(θ0,θ1) outline 初始化θ0,θ1 調(diào)整θ0、θ1...
一、監(jiān)督學(xué)習(xí)的模型 m:訓(xùn)練樣本數(shù)目 x:輸入變量/特征量 y:輸出變量/目標(biāo)變量 (x(i),y(i)):第i個訓(xùn)練樣本 x(i):第i個訓(xùn)練...