理解關(guān)于神經(jīng)網(wǎng)絡(luò)與回歸問題

在理解這個(gè)問題之前我先提出幾個(gè)問題:

  • 什么是回歸?
  • 一般是如何實(shí)現(xiàn)回歸?
  • 神經(jīng)網(wǎng)絡(luò)又是如何實(shí)現(xiàn)回歸的?

回歸用于對(duì)連續(xù)值進(jìn)行預(yù)測(cè)。

回歸分析是一種統(tǒng)計(jì)學(xué)上分析數(shù)據(jù)的方法,目的在于了解兩個(gè)或多個(gè)變量之間是否相關(guān)、相關(guān)方向和強(qiáng)度,并簡歷數(shù)學(xué)模型以便觀察特定變量來預(yù)測(cè)研究者感興趣的變量。

回歸模型一般可定義為如下:


其中X為自變量,Y為因變量,β為未知參數(shù)。
最簡單的回歸模型就是單元線性回歸:

此外,還有多元線性回歸、對(duì)數(shù)線性回歸。在非線性回歸中有邏輯回歸、偏最小二乘回歸、自回歸等等。Btw:邏輯回歸一般用于二分類,本來輸出的是個(gè)連續(xù)變量,只是設(shè)了一個(gè)閾值0.5就可以將其分為0,1兩類了。

神經(jīng)網(wǎng)絡(luò)就是一種非線性模型

神經(jīng)網(wǎng)絡(luò)的初衷是用于分類(或者說現(xiàn)在大多神經(jīng)網(wǎng)絡(luò)都用于分類),如果用神經(jīng)網(wǎng)絡(luò)來做回歸預(yù)測(cè),一般是把神經(jīng)網(wǎng)絡(luò)當(dāng)作特征提取器,得到特征向量后再訓(xùn)練線性回歸模型。而最簡單的做法就是最后一層不激活,直接輸出(也可以換成其他線性分類器),然后損失函數(shù)改為均方誤差函數(shù)就可以了。
比較典型的回歸例子可以參考Bounding box回歸和關(guān)鍵點(diǎn)回歸(Deeppose

?著作權(quán)歸作者所有,轉(zhuǎn)載或內(nèi)容合作請(qǐng)聯(lián)系作者
【社區(qū)內(nèi)容提示】社區(qū)部分內(nèi)容疑似由AI輔助生成,瀏覽時(shí)請(qǐng)結(jié)合常識(shí)與多方信息審慎甄別。
平臺(tái)聲明:文章內(nèi)容(如有圖片或視頻亦包括在內(nèi))由作者上傳并發(fā)布,文章內(nèi)容僅代表作者本人觀點(diǎn),簡書系信息發(fā)布平臺(tái),僅提供信息存儲(chǔ)服務(wù)。

相關(guān)閱讀更多精彩內(nèi)容

友情鏈接更多精彩內(nèi)容