簡(jiǎn)單線性回歸

           簡(jiǎn)單線性回歸

從今日起,開始算法部分學(xué)習(xí)


  • 第一個(gè)算法,簡(jiǎn)單線性回歸(Simple Linear Regressor)
  1. 原理:
    -- y = ax+b
  2. 學(xué)習(xí)
    • 這是最簡(jiǎn)單的線性相關(guān),考查的是y和x之間的相互關(guān)系,a代表斜率,b代表截距,只要上過初中,就可以理解,無(wú)需多言,總體而言,y和x處于同一條直線附近.
1.jpg
       sklearn
  1. 當(dāng)然可以利用Python自行實(shí)現(xiàn),不過在現(xiàn)在的時(shí)代,各種算法框架層出不窮,實(shí)在沒有必要舍近求遠(yuǎn),sklearn足夠好用.

  2. 導(dǎo)入
    from sklearn.linear_model import LinearRegression

  3. 實(shí)例化

model = LinearRegression()

  1. 訓(xùn)練

model.fit(X,y) #X為矩陣,y為list

  1. 預(yù)測(cè)

predict = model.predict(test)[0] #test為需要預(yù)測(cè)的值

        評(píng)估
  • 評(píng)估,可應(yīng)用方差和協(xié)方差進(jìn)行
  1. numpy計(jì)算方差

np.var(X,ddof=1) #ddof為指定類型

  1. 協(xié)方差
    • 首先將list(y) 變?yōu)閍rray格式

np.cov(X.T,y)[0][1]


  • R指數(shù)是默認(rèn)的評(píng)估方式

  • model.score(x,y)

總結(jié)

  • 簡(jiǎn)單線性回歸較為簡(jiǎn)單,不必過度上心,快速進(jìn)入下一環(huán)節(jié):K-NN!
?著作權(quán)歸作者所有,轉(zhuǎn)載或內(nèi)容合作請(qǐng)聯(lián)系作者
【社區(qū)內(nèi)容提示】社區(qū)部分內(nèi)容疑似由AI輔助生成,瀏覽時(shí)請(qǐng)結(jié)合常識(shí)與多方信息審慎甄別。
平臺(tái)聲明:文章內(nèi)容(如有圖片或視頻亦包括在內(nèi))由作者上傳并發(fā)布,文章內(nèi)容僅代表作者本人觀點(diǎn),簡(jiǎn)書系信息發(fā)布平臺(tái),僅提供信息存儲(chǔ)服務(wù)。

相關(guān)閱讀更多精彩內(nèi)容

友情鏈接更多精彩內(nèi)容