線性回歸可能是統(tǒng)計(jì)學(xué)和機(jī)器學(xué)習(xí)中最知名且易于理解的算法之一。
它不就是一項(xiàng)起源于統(tǒng)計(jì)學(xué)的技術(shù)嗎?
預(yù)測建模主要關(guān)注的是讓模型的誤差最小化,或者說,在可以解釋的前提下,盡可能作出最準(zhǔn)確的預(yù)測。我們會(huì)借用,重用,甚至是竊取許多不同領(lǐng)域(包括統(tǒng)計(jì)學(xué))的算法,并將其用于上述的目標(biāo)。
線性回歸通常表示為這樣一個(gè)等式:
通過查找特定的稱為系數(shù)(B)的輸入變量的權(quán)重,來描述最符合輸入變量(x)和輸出變量(y)之間關(guān)系的直線。
例如:y = B0 + B1 * x
我們將在給定輸入x的情況下預(yù)測y。線性回歸學(xué)習(xí)算法的目標(biāo)是找到系數(shù)B0和B1的值,并且讓預(yù)測值和真實(shí)值之間的誤差最小化。
可以使用不同的技術(shù)從數(shù)據(jù)中學(xué)習(xí)(訓(xùn)練)線性回歸模型,例如,最小二乘法的線性代數(shù)解,和梯度下降優(yōu)化法。
線性回歸已經(jīng)存在了200多年,得到了廣泛研究。使用此技術(shù)的要點(diǎn)是刪除非常相似(相關(guān))的變量,并盡可能消除數(shù)據(jù)中的噪聲。
這是一種快速而簡單的技術(shù),值得嘗試的第一個(gè)好算法。