1、

2、邏輯回歸我們要求h(theta)的值在0和1之間,g(z)是s型函數(shù)或者叫邏輯函數(shù),令z = theta'x使得h(theta)在0和1之間

3、注意下圖紅框中的等式


4、z >= 0時(shí),h(x)的值為1,否則為0

決策邊界是z =0

非線性決策邊界,只需要聽課里面如何確定各個(gè)theta參數(shù)了(通過找最優(yōu)目標(biāo)或者代價(jià)函數(shù)來擬合theta參數(shù))

5、利用求線性回歸模型的代價(jià)函數(shù)來擬合邏輯回歸模型的theta參數(shù)將會(huì)得到非凸函數(shù) J(theta),無法求得全局最優(yōu)值?

6、邏輯回歸函數(shù)的代價(jià)函數(shù)如下




6、如何判斷alpha值設(shè)置的正確性以及如何確定梯度下降是正確運(yùn)行的

7、優(yōu)化算法不止梯度下降

8、多分類問題,預(yù)測(cè)一個(gè)new x所對(duì)應(yīng)的類別時(shí),選擇由多個(gè)分類器得到的多個(gè)概率中最大的那個(gè)。

9、octave中運(yùn)行的高級(jí)算法?沒弄明白最后一道題既然用的是梯度下降為什么題目上說的是advanced optimaztion ??? !!!

10、 這篇文章對(duì)正則的講解 http://www.cnblogs.com/jianxinzhou/p/4083921.html
11、提交前的答題記錄

此題應(yīng)該是選擇第二個(gè),對(duì)于第一項(xiàng),引進(jìn)正則化是為了minimize your error while regularizing your parameters”,也就是在規(guī)則化參數(shù)的同時(shí)最小化誤差,即減小誤差的同時(shí)能夠讓模型對(duì)于測(cè)試數(shù)據(jù)能有很好的性能。其中‘減小誤差’,相當(dāng)于對(duì)訓(xùn)練數(shù)據(jù)也有很好的性能。

正確?。?!

在正則化線性回歸中,如果正則化參數(shù)值 λ 被設(shè)定為非常大,我們將會(huì)非常大地懲罰參數(shù)θ1 θ2 θ3 θ4 … 也就是說,我們最終懲罰θ1 θ2 θ3 θ4 … 在一個(gè)非常大的程度,那么我們會(huì)使所有這些參數(shù)接近于零。如果我們這么做,那么就是我們的假設(shè)中相當(dāng)于去掉了這些項(xiàng),并且使我們只是留下了一個(gè)簡(jiǎn)單的假設(shè),這個(gè)假設(shè)只能表明房屋價(jià)格等于 θ0
的值,那就是類似于擬合了一條水平直線,對(duì)于數(shù)據(jù)來說這就是一個(gè)欠擬合 (underfitting)。這種情況下這一假設(shè)它是條失敗的直線,對(duì)于訓(xùn)練集來說這只是一條平滑直線,它沒有任何趨勢(shì),它不會(huì)去趨向大部分訓(xùn)練樣本的任何值。
另外,此題的最后一個(gè)選項(xiàng),不是正則化而是多項(xiàng)式使得J(θ)不在是凸函數(shù),正則化是使得凹函數(shù)稍微平滑的方法。
故此題選擇第二項(xiàng)。
看第二遍視頻的補(bǔ)充:


