筆記-梯度下降法

梯度下降法:(已最快的速度找到最優(yōu)解的方法)


自己的理解:有監(jiān)督的機(jī)器學(xué)習(xí),利用給定的一批X和Y取解參數(shù),即模型。在線性回歸方程的問題上,我們的目的是要求得wo,w1...wn這些參數(shù)。用線性代數(shù)的方式表達(dá)即是W(theta)。根據(jù)最小方差的公式可以準(zhǔn)確的計(jì)算出W。但這在樣本和特征(即x1,x2...xn這些因變量)少的情況下還行,在特征值非常多的情況下,如圖片的像素點(diǎn)就非常困難。所以采用梯度下降法的方式來解決

基本公式? theta1 = theta0 - gradient*learning_rate

gradient:梯度,即方程的導(dǎo)數(shù),在當(dāng)時(shí)的時(shí)刻(theta值)導(dǎo)數(shù)的值反應(yīng)了函數(shù)變化量。

我們的目的是找到導(dǎo)數(shù)gradient的值=0的時(shí)刻對(duì)應(yīng)的theta值,當(dāng)theta在目標(biāo)值(最有theta)左邊,梯度值小于0,減去梯度導(dǎo)致theta更盡皆目標(biāo)值。相反在右邊梯度大于0,同樣使得theta更接近目標(biāo)值。

learning_rate:學(xué)習(xí)率,根據(jù)經(jīng)驗(yàn)來調(diào)整

對(duì)于線性回歸的方程,在擁有多個(gè)特征的情況下theta不是一個(gè)值。而是一個(gè)向量。所以一般情況下我們要求得的是每個(gè)因變量對(duì)應(yīng)的偏導(dǎo)

線性公式求偏導(dǎo)過程:


求解過程:前部分用線性代數(shù)的方式表示,復(fù)合函數(shù)的求導(dǎo),偏導(dǎo)數(shù)的理解

?著作權(quán)歸作者所有,轉(zhuǎn)載或內(nèi)容合作請(qǐng)聯(lián)系作者
【社區(qū)內(nèi)容提示】社區(qū)部分內(nèi)容疑似由AI輔助生成,瀏覽時(shí)請(qǐng)結(jié)合常識(shí)與多方信息審慎甄別。
平臺(tái)聲明:文章內(nèi)容(如有圖片或視頻亦包括在內(nèi))由作者上傳并發(fā)布,文章內(nèi)容僅代表作者本人觀點(diǎn),簡(jiǎn)書系信息發(fā)布平臺(tái),僅提供信息存儲(chǔ)服務(wù)。

相關(guān)閱讀更多精彩內(nèi)容

  • [cp]自讀書起就每天努力學(xué)習(xí)、勤奮工作、盡力照顧家人,從來沒放松過自己,特別是20多歲時(shí)每天只有四五個(gè)小時(shí)的睡眠...
    JOEY_46ce閱讀 191評(píng)論 0 1
  • 古有人物肖像畫,今有自拍大頭照,不知你發(fā)現(xiàn)沒,網(wǎng)絡(luò)畫自拍需求很大,我也畫了不少,不過我既沒有完全畫寫實(shí),也不是純卡...
    我是KiShua閱讀 551評(píng)論 7 6
  • 午后的瞌睡蟲從腦袋出發(fā)逐漸爬滿全身,被困意拖拽著的意識(shí)又開始消沉起來。我扭扭脖子,盯著天花板上的中央空調(diào)發(fā)呆。泛黃...
    宇宙游者閱讀 413評(píng)論 0 0
  • 愿你從此以后走向幸福路!
    灰灰與格格閱讀 390評(píng)論 0 0
  • 排行榜截圖 總結(jié) : 第一次打線下賽是在 16 年 10 月份的時(shí)候的 XDCTF , 說實(shí)話當(dāng)時(shí)線下賽確實(shí)打得挺...
    王一航閱讀 1,332評(píng)論 12 10

友情鏈接更多精彩內(nèi)容