機(jī)器學(xué)習(xí)速成課程 學(xué)習(xí)筆記4:主要術(shù)語(yǔ)

https://developers.google.cn/machine-learning/crash-course/framing/ml-terminology

什么是(監(jiān)督式)機(jī)器學(xué)習(xí)?簡(jiǎn)單來說,它的定義如下:

機(jī)器學(xué)習(xí)系統(tǒng)通過學(xué)習(xí)如何組合輸入信息來對(duì)從未見過的數(shù)據(jù)做出有用的預(yù)測(cè)。

標(biāo)簽

是我們要預(yù)測(cè)的事物,即簡(jiǎn)單線性回歸中的 y 變量。

特征

特征是輸入變量,即簡(jiǎn)單線性回歸中的 x 變量。
簡(jiǎn)單的機(jī)器學(xué)習(xí)項(xiàng)目可能會(huì)使用單個(gè)特征,而比較復(fù)雜的機(jī)器學(xué)習(xí)項(xiàng)目可能會(huì)使用數(shù)百萬(wàn)個(gè)特征。

樣本

樣本是指數(shù)據(jù)的特定實(shí)例:x。(我們采用粗體 x 表示它是一個(gè)矢量。)

模型

模型定義了特征與標(biāo)簽之間的關(guān)系。

回歸與分類
  • 回歸模型可預(yù)測(cè)連續(xù)值.
  • 分類模型可預(yù)測(cè)離散值.

線性回歸

https://developers.google.cn/machine-learning/crash-course/descending-into-ml/linear-regression

訓(xùn)練與損失

https://developers.google.cn/machine-learning/crash-course/descending-into-ml/training-and-loss
均方誤差 (MSE) 指的是每個(gè)樣本的平均平方損失

迭代方法

https://developers.google.cn/machine-learning/crash-course/reducing-loss/an-iterative-approach
學(xué)習(xí)過程會(huì)持續(xù)迭代,直到該算法發(fā)現(xiàn)損失可能最低的模型參數(shù)。
通常,您可以不斷迭代,直到總體損失不再變化或至少變化極其緩慢為止。
這時(shí)候,我們可以說該模型已收斂。

梯度下降法

學(xué)習(xí)速率

隨機(jī)梯度下降法

最后編輯于
?著作權(quán)歸作者所有,轉(zhuǎn)載或內(nèi)容合作請(qǐng)聯(lián)系作者
【社區(qū)內(nèi)容提示】社區(qū)部分內(nèi)容疑似由AI輔助生成,瀏覽時(shí)請(qǐng)結(jié)合常識(shí)與多方信息審慎甄別。
平臺(tái)聲明:文章內(nèi)容(如有圖片或視頻亦包括在內(nèi))由作者上傳并發(fā)布,文章內(nèi)容僅代表作者本人觀點(diǎn),簡(jiǎn)書系信息發(fā)布平臺(tái),僅提供信息存儲(chǔ)服務(wù)。

友情鏈接更多精彩內(nèi)容