現(xiàn)在來約定一些變量
"m"= Number of training examples(表示訓(xùn)練樣本的數(shù)目)
"x"="input" variable /features (輸入變量或者是特征變量)
"y"="output" variable/"target" variables (輸出變量或者目標(biāo)變量)
Model Representation(模型表示)

線性回歸模型(Linear regression)模型,說簡單點就是一個關(guān)于單變量的線性回歸,即單變量線性回歸這個變量就是x。
Cost Functon(代價函數(shù))
代價函數(shù)的概念,使得我們能夠弄清楚如何把最有可能的直線與我們的數(shù)據(jù)相擬合。代價函數(shù)也被稱為平方誤差函數(shù)或者平方誤差代價函數(shù)。我們之所以要求出誤差的平方和,是因為平方誤差代價函數(shù)對于大多數(shù)回歸問題都是一個合理的選擇。(還有其他的代價函數(shù),但是平方誤差代價函數(shù)可能是解決回歸問題最常用的手段,后續(xù)會討論其他的)
代價函數(shù)的工作原理:求出與我們的數(shù)據(jù)相擬合的最有可能的直線
代價函數(shù)到底在計算什么: 誤差。因為代價函數(shù)實際上是就是代價函數(shù)所求的值越小,那么誤差就越小,擬合出來的曲線越接近數(shù)據(jù)的實際情況


通過給假設(shè)函數(shù)的自變量賦值帶入,然后求出J的值,從而手動的擬合出一條曲線,估計出J的最小值。
所以其實根據(jù)已經(jīng)有的點來獲得擬合函數(shù),1是可以通過《HeadFirst DA》來直接用excel來擬合,2是可以通過已經(jīng)有的點來手動擬合這點應(yīng)該只是高中的知識。3是 可以通過代價函數(shù),求出相關(guān)性最大的公式。
更加深入的學(xué)習(xí)代價函數(shù)的作用:

contour plot 或contour figure都是輪廓圖的意思

右邊輪廓圖中的一個點,就是左邊圖像中的一條線。
即,我們真正需要的,是編寫程序來找出最小化代價函數(shù)的θ0和θ1的值,我們需要知道一種算法,能夠自動地找出能使代價函數(shù) J 最小化的參數(shù)θ0和θ1的值 ,這就要引出下一節(jié)討論的內(nèi)容——梯度下降函數(shù)。