[Week 1] Machine-learning Notes 2 ——Model and Cost Function(引出代價函數(shù))

現(xiàn)在來約定一些變量
"m"= Number of training examples(表示訓(xùn)練樣本的數(shù)目)
"x"="input" variable /features (輸入變量或者是特征變量)
"y"="output" variable/"target" variables (輸出變量或者目標(biāo)變量)

Model Representation(模型表示)

Model Representation

線性回歸模型(Linear regression)模型,說簡單點就是一個關(guān)于單變量的線性回歸,即單變量線性回歸這個變量就是x。

Cost Functon(代價函數(shù))

代價函數(shù)的概念,使得我們能夠弄清楚如何把最有可能的直線與我們的數(shù)據(jù)相擬合。代價函數(shù)也被稱為平方誤差函數(shù)或者平方誤差代價函數(shù)。我們之所以要求出誤差的平方和,是因為平方誤差代價函數(shù)對于大多數(shù)回歸問題都是一個合理的選擇。(還有其他的代價函數(shù),但是平方誤差代價函數(shù)可能是解決回歸問題最常用的手段,后續(xù)會討論其他的)

代價函數(shù)的工作原理:求出與我們的數(shù)據(jù)相擬合的最有可能的直線
代價函數(shù)到底在計算什么: 誤差。因為代價函數(shù)實際上是就是代價函數(shù)所求的值越小,那么誤差就越小,擬合出來的曲線越接近數(shù)據(jù)的實際情況

Cost Function
Cost Function - Intuition I

通過給假設(shè)函數(shù)的自變量賦值帶入,然后求出J的值,從而手動的擬合出一條曲線,估計出J的最小值。

所以其實根據(jù)已經(jīng)有的點來獲得擬合函數(shù),1是可以通過《HeadFirst DA》來直接用excel來擬合,2是可以通過已經(jīng)有的點來手動擬合這點應(yīng)該只是高中的知識。3是 可以通過代價函數(shù),求出相關(guān)性最大的公式。

更加深入的學(xué)習(xí)代價函數(shù)的作用:


目前為止的重要公式

contour plot 或contour figure都是輪廓圖的意思

Cost Function - Intuition II

右邊輪廓圖中的一個點,就是左邊圖像中的一條線。

即,我們真正需要的,是編寫程序來找出最小化代價函數(shù)的θ0和θ1的值,我們需要知道一種算法,能夠自動地找出能使代價函數(shù) J 最小化的參數(shù)θ0和θ1的值 ,這就要引出下一節(jié)討論的內(nèi)容——梯度下降函數(shù)。

最后編輯于
?著作權(quán)歸作者所有,轉(zhuǎn)載或內(nèi)容合作請聯(lián)系作者
【社區(qū)內(nèi)容提示】社區(qū)部分內(nèi)容疑似由AI輔助生成,瀏覽時請結(jié)合常識與多方信息審慎甄別。
平臺聲明:文章內(nèi)容(如有圖片或視頻亦包括在內(nèi))由作者上傳并發(fā)布,文章內(nèi)容僅代表作者本人觀點,簡書系信息發(fā)布平臺,僅提供信息存儲服務(wù)。

相關(guān)閱讀更多精彩內(nèi)容

友情鏈接更多精彩內(nèi)容