DW-李宏毅深度學(xué)習(xí)打卡- Task02

Task01:

觀看機(jī)器學(xué)習(xí)介紹(1 天)

keyword

一、Regression

  • 定義
  • 應(yīng)用

二、Model

  • 模型假設(shè)
  • 模型評估
  • 模型優(yōu)化

感受:僅僅是完成任務(wù),但并不理想。
1、沒有學(xué)前基礎(chǔ):數(shù)學(xué)知識遺忘的差不多了;可以算得上沒有python基礎(chǔ);
2、看完視頻并零零散散地記錄了一些筆記,對回歸有了一定的認(rèn)知,但【模型】這一部分就一言難盡了。

一、Regression

定義:

Regression,找到function,input feature ,output scalar

應(yīng)用:

Regression 可以進(jìn)行股票預(yù)測、自動駕駛、推薦系統(tǒng),它輸出的是數(shù)值

  • 股票預(yù)測:f(股票數(shù)據(jù))=股票預(yù)測
  • 自動駕駛:f(無人車感知的信息)=方向盤的角度
  • 推薦系統(tǒng):f(使用者A 商品B)= 購買可能性

二、 Model

1、模型假設(shè)

  • 一元線性模型
    y=b+w\times x_{cp}
  • 多元線性模型
    y=b+\Sigma w_{i}x_{i}

2、模型評估

如何評估模型的好壞。從數(shù)學(xué)的角度解釋:可以用真實值和期望值的距離,進(jìn)行評估。用損失函數(shù)(方差)評估模型的好壞:loss小,模型好;


方差公式,來源網(wǎng)絡(luò)
損失函數(shù)

3、模型評估-梯度下降

以一元線性方程為例:

  • 引入學(xué)習(xí)率\eta:移動的步長
    1、隨機(jī)選取初始值:w^{0}
    2、計算微分,即$w^{0}的斜率
  • 大于0,w向右移動
  • 小于0,w向左移動

\frac{dL}{dw}|_{w=w^{0}} \\ w^{1}\leftarrow w^{0}-\eta \frac{dL}{dw}|_{w=w^{0}}

重復(fù)以上步驟,直至找到最低點;

多元線性方程與之同理;

———————————————————-

1、如何驗證訓(xùn)練好的模型好與壞:

使用訓(xùn)練集和測試集的平均誤差來驗證模型的好壞


image.png

2、更復(fù)雜的模型:一元N次線性模型

引入更為復(fù)雜的模型,進(jìn)行優(yōu)化


image.png

會出現(xiàn):模型訓(xùn)練效果好,但是在測試集訓(xùn)練效果不佳的情況——overfitting。需要進(jìn)行優(yōu)化:

1、引入多個線性模型,合并到一個線性模型;
2、引入更多的特征,input feature(原模型未涉及的,如血量、高度、重量)
3、需要通過regulartion(正則化),讓模型變得更平滑。(函數(shù)的平移,與模型的平滑度無關(guān),故不需要考慮bais)。

?著作權(quán)歸作者所有,轉(zhuǎn)載或內(nèi)容合作請聯(lián)系作者
【社區(qū)內(nèi)容提示】社區(qū)部分內(nèi)容疑似由AI輔助生成,瀏覽時請結(jié)合常識與多方信息審慎甄別。
平臺聲明:文章內(nèi)容(如有圖片或視頻亦包括在內(nèi))由作者上傳并發(fā)布,文章內(nèi)容僅代表作者本人觀點,簡書系信息發(fā)布平臺,僅提供信息存儲服務(wù)。

相關(guān)閱讀更多精彩內(nèi)容

友情鏈接更多精彩內(nèi)容