線性回歸

提出背景

  • 房屋房價(jià)預(yù)測
面積 房間數(shù) 樓層數(shù) 價(jià)格
2104 5 1 460
1416 3 2 232
1534 3 2 315
  • 術(shù)語轉(zhuǎn)換
    x_{ij} 其中i、j表示第i行輸入的第j個(gè)特征 如:x_{23} = 2 是輸入特征值
    j_i 表示第i行輸出,是估計(jì)值 如:j_2 = 232

矩陣表示

  • 將上房屋特征 和房價(jià) 矩陣化

\left[\begin{array}{ccc} \theta_1x_{11} + \theta_2x_{12} + \dots + \theta_nx_{1n} \\ \theta_1x_{21} + \theta_2x_{22} + \dots + \theta_nx_{2n} \\ \vdots & \\ \theta_1x_{m1} + \theta_2x_{m2} + \dots + \theta_nx_{mn} \\ \end{array}\right] = \left[\begin{array}{ccc} y_1 \\ y_2 \\ \vdots \\ y_3 \\ \end{array}\right]

  • 將上式 轉(zhuǎn)換為矩陣乘
    \left[\begin{array}{ccc} x_{11} & x_{12} & \dots & x_{1n} \\ x_{21} & x_{22} & \dots & x_{2n} \\ \vdots & \vdots & \ddots & \vdots \\ x_{m1} & x_{m2} & \dots & x_{mn} \\ \end{array}\right] \times \left[\begin{array}{ccc} \theta_1 \\ \theta_2 \\ \vdots \\ \theta_n \\ \end{array}\right] = \left[\begin{array}{ccc} y_1 \\ y_2 \\ \vdots \\ y_m \\ \end{array}\right]

為什么要這么轉(zhuǎn)換呢,因?yàn)橛?jì)算機(jī)很擅長于做矩陣運(yùn)算

  • 給上式加一個(gè)截距 變成y = ax +b這種形式,b為截距

\left[\begin{array}{ccc} x_{10} & x_{11} & x_{12} & \dots & x_{1n} \\ x_{20} & x_{21} & x_{22} & \dots & x_{2n} \\ \vdots & \vdots & \vdots & \ddots & \vdots \\ x_{m0} & x_{m1} & x_{m2} & \dots & x_{mn} \\ \end{array}\right] \times \left[\begin{array}{ccc} \theta_0 \\ \theta_1 \\ \theta_2 \\ \vdots \\ \theta_n \\ \end{array}\right] = \left[\begin{array}{ccc} y_1 \\ y_2 \\ \vdots \\ y_m \\ \end{array}\right]

上式的截距為 x_{i0}\theta_0x_{i0}=1 截距為\theta_0

  • 我們將上式,表示形為 f(x) = X\theta^T

  • 我們的目標(biāo)是 求出 \theta^T 讓他更好的去擬合給出的數(shù)據(jù)

我們是使用損失函數(shù)來判斷 擬合的好壞 ,注意 x_{ij} \quad j_i 都是給定的已知數(shù)

  • 損失函數(shù) 定義為
    J(\theta_0,\theta_1,\dots,\theta_n) = \frac 1{2m} \sum _{i=1}^m (h_\theta (x ^{(i)}) -y^{(i)})^2

這是一個(gè) 只與 \theta^T 有關(guān)的函數(shù) ,我們的目標(biāo),是讓這個(gè)損失函數(shù)最小。
一般情況,上標(biāo)表示輸入的行數(shù),下標(biāo)表示 列的特征值
其中:h_\theta(x^{(i)}) = x_{i0}\theta_0 + x_{i1}\theta_1 +x_{i2}\theta_2 + \dots +x_{in}\theta_n

梯度下降法

  • 思路 描述

函數(shù)上 任選一個(gè)起始點(diǎn),在這點(diǎn)上 選擇一個(gè) 下降速度最快的方向(梯度),移動(dòng)一小步(學(xué)習(xí)率),求得新的函數(shù)值。與上一點(diǎn)函數(shù)值比較,如果小于上點(diǎn)函數(shù)值,重復(fù)原來的操作。繼續(xù)下降,直至最小值。

  • 概念引出

梯度 和 學(xué)習(xí)率

  • 損失函數(shù)的偏導(dǎo) (n+1)個(gè)
    \frac {\partial J}{\partial \theta_j} = \frac 1{m} \sum _{i=1}^m (h_\theta (x ^{(i)}) -y^{(i)})x_{ij}

\alpha 太小,收斂太慢,太大就容易扯到蛋,甚至收斂不了

多項(xiàng)式回歸

  • 欠擬合

上面 是使用線性模型 訓(xùn)練數(shù)據(jù)的 非線性 函數(shù),為了防止一次方程的欠擬合現(xiàn)象,我們可以增加模型的復(fù)雜度,創(chuàng)造一個(gè)多次方程進(jìn)行擬合。

  • 舉例
    \hat{y}(w,x) = w_0 + w_1x_1 +w_2x_2 轉(zhuǎn)化為:
    \hat{y}(w,x) = w_0 +w_1x_1 +w_2x_2 +w_3x_1x_2 + w_4x_1^2 +w_5x_2^2

問題就轉(zhuǎn)化成了 \hat{y}(w,z) = w_0 +w_1z_1 +w_2z_2 +w_3z_3 + w_4z_4 +w_5z_5
這種思路還可以解決異或問題 \hat{y} =x_1 \overline{x_2} + \overline{x_1} x_2 (挺不錯(cuò))

  • 正則化

解決過擬合現(xiàn)象,將參數(shù)也加入到損失函數(shù)中,聯(lián)合進(jìn)行評估。

  • 領(lǐng)回歸
    嶺回歸通過對系數(shù)施加懲罰來解決最小二乘法的缺點(diǎn)

arg min_w ||Xw - y||_2^2 + \alpha ||w||_2^2

最后編輯于
?著作權(quán)歸作者所有,轉(zhuǎn)載或內(nèi)容合作請聯(lián)系作者
【社區(qū)內(nèi)容提示】社區(qū)部分內(nèi)容疑似由AI輔助生成,瀏覽時(shí)請結(jié)合常識與多方信息審慎甄別。
平臺聲明:文章內(nèi)容(如有圖片或視頻亦包括在內(nèi))由作者上傳并發(fā)布,文章內(nèi)容僅代表作者本人觀點(diǎn),簡書系信息發(fā)布平臺,僅提供信息存儲(chǔ)服務(wù)。

相關(guān)閱讀更多精彩內(nèi)容

  • 1 摘要 本報(bào)告是在學(xué)習(xí)斯坦福大學(xué)機(jī)器學(xué)習(xí)課程前四節(jié)加上配套的講義后的總結(jié)與認(rèn)識。前四節(jié)主要講述了回歸問題,回歸屬...
    chaaffff閱讀 2,895評論 0 2
  • 背景 學(xué)習(xí)深度學(xué)習(xí)已經(jīng)一段時(shí)間了,但是學(xué)習(xí)過程中總覺得缺了點(diǎn)什么,無從動(dòng)手編程。因此,我還是希望使用寫文章的方式來...
    yjy239閱讀 2,359評論 0 7
  • 下面就讓我們跟著吳恩達(dá)老師來學(xué)習(xí)單變量線性回歸這個(gè)基礎(chǔ)算法啦?。∮袉栴}的盡管提出來就好啦?。。?在很多朋友們學(xué)習(xí)統(tǒng)...
    Colleen_oh閱讀 581評論 1 2
  • 這篇介紹的是我在做房價(jià)預(yù)測模型時(shí)的python代碼,房價(jià)預(yù)測在機(jī)器學(xué)習(xí)入門中已經(jīng)是個(gè)經(jīng)典的題目了,但我發(fā)現(xiàn)目前網(wǎng)上...
    mantch閱讀 29,121評論 1 6
  • 1、回歸的來源? 英國人類學(xué)家F.Galton首次在《自然遺傳》一書中,提出并闡明了“相關(guān)”和“相關(guān)系數(shù)”兩個(gè)概念...
    FreeLuo閱讀 1,342評論 1 0

友情鏈接更多精彩內(nèi)容