數(shù)學——你與機器學習之間的距離

機器學習里,數(shù)學為什么很重要?

做機器學習數(shù)學基礎系列專欄和大家一起共同交流學習,是我們準備了很久的一個計劃。因為在當下,機器學習、人工智能領域吸引了許多同學投身其中,其中包含了大量非科班出身或者從其他行業(yè)切換賽道轉行而來的朋友們,大家在學習的過程中發(fā)現(xiàn)學習曲線陡峭、難度較大,普遍的心聲就是:機器學習難,首要就是數(shù)學知識需要的太多了

的確如此,機器學習是一個綜合性強、知識棧長的學科,需要大量的前序知識作為鋪墊,最核心、最基礎的就是他的絕大多數(shù)算法模型和實際應用都依賴于以概率統(tǒng)計、線性代數(shù)微積分為代表的數(shù)學理論和思想方法。

比方說吧:

  • 面對一個統(tǒng)計樣本,你想估計出你感興趣的參數(shù),極大似然估計以及有偏性無偏性你能不掌握?如果不巧碰上包含隱變量的場景,EM迭代的思想你可是躲都躲不開;

  • 想進行語音識別?隱馬爾可夫模型你不可不會;想對一句話進行詞性標注?條件隨機場你敢不懂?

  • 在進行貝葉斯推斷的時候,如果對馬爾科夫鏈蒙特卡洛方法等近似推斷一無所知,可能一個復雜的概率分布就讓你舉步維艱;

  • 對時間序列進行預測,或許卡爾曼濾波、粒子濾波對你來說是一個好的選擇;

  • 進行樣本分類、聚類這些常規(guī)操作時,邏輯回歸、高斯判別、高斯混合等各種模型都應該如數(shù)家珍;

  • 對高維數(shù)據(jù)進行降維分析,提取和聚焦他的主成分,背后就是線性代數(shù)中空間的概念和矩陣分解的技巧;

  • 想將待處理的數(shù)據(jù)在不同維度的空間中進行變換處理,以尋找到最佳的觀測角度,使得數(shù)據(jù)處理達到最好的效果,矩陣的相似變換是不是得好好理解?

  • 想在不太影響觀察效果的前提下,利用很小的存儲空間就能近似的達到原有圖像的視覺效果,利用矩陣進行圖像的數(shù)字表示和變換處理是基礎之中的基礎;

  • 想理解神經(jīng)網(wǎng)絡的訓練過程,想獲取復雜函數(shù)的最值,離不開梯度的概念以及多元微分和優(yōu)化方法;

因此,可以看出,數(shù)學基礎是機器學習繞不開的一塊陣地。

機器學習里,這幾門數(shù)學課各自扮演的角色?

圍繞概率統(tǒng)計、線性代數(shù)微積分這三大核心內(nèi)容,
在進入到專欄大綱之前,我們首先來看看這四門專欄在機器學習中各自都扮演了什么樣的角色,細致的梳理一下學科的內(nèi)在邏輯。

第一:概率統(tǒng)計是利用數(shù)據(jù)發(fā)現(xiàn)規(guī)律、推測未知的思想方法

其實這和機器學習的目標是高度一致的。機器學習中的思想方法和核心算法大多是構筑在統(tǒng)計思維方法之上的。核心的概率思想和基礎概念將圍繞著條件概率、隨機變量、隨機過程、統(tǒng)計推斷、概率圖等內(nèi)容展開,體現(xiàn)了概率統(tǒng)計在機器學習中的靈魂作用。

第二:線性代數(shù)是利用空間投射和表征數(shù)據(jù)的基本工具

還有 78% 的精彩內(nèi)容
?著作權歸作者所有,轉載或內(nèi)容合作請聯(lián)系作者
【社區(qū)內(nèi)容提示】社區(qū)部分內(nèi)容疑似由AI輔助生成,瀏覽時請結合常識與多方信息審慎甄別。
平臺聲明:文章內(nèi)容(如有圖片或視頻亦包括在內(nèi))由作者上傳并發(fā)布,文章內(nèi)容僅代表作者本人觀點,簡書系信息發(fā)布平臺,僅提供信息存儲服務。
支付 ¥2.99 繼續(xù)閱讀

友情鏈接更多精彩內(nèi)容