機(jī)器學(xué)習(xí)內(nèi)家心法資源整理(持續(xù)更新)

原文更新在俺的GitHub上,如果覺(jué)得好點(diǎn)個(gè)star謝謝。
機(jī)器學(xué)習(xí)/人工智能/自然語(yǔ)言處理資料教程集合

前面基本是我看過(guò)的書(shū)籍和教程推薦,在最后面有我的學(xué)習(xí)路線,避免多走彎路,實(shí)現(xiàn)高效系統(tǒng)學(xué)習(xí)。

目錄:

基礎(chǔ)概念和認(rèn)知:

機(jī)器學(xué)習(xí) 機(jī)器學(xué)習(xí)是近20多年興起的一門(mén)多領(lǐng)域交叉學(xué)科,涉及概率論、統(tǒng)計(jì)學(xué)、逼近論、凸分析、算法復(fù)雜度理論等多門(mén)學(xué)科。機(jī)器學(xué)習(xí)理論主要是設(shè)計(jì)和分析一些讓計(jì)算機(jī)可以自動(dòng)“學(xué)習(xí)”的算法。機(jī)器學(xué)習(xí)算法是一類(lèi)從數(shù)據(jù)中自動(dòng)分析獲得規(guī)律,并利用規(guī)律對(duì)未知數(shù)據(jù)進(jìn)行預(yù)測(cè)的算法。因?yàn)閷W(xué)習(xí)算法中涉及了大量的統(tǒng)計(jì)學(xué)理論,機(jī)器學(xué)習(xí)與統(tǒng)計(jì)推斷學(xué)聯(lián)系尤為密切,也被稱(chēng)為統(tǒng)計(jì)學(xué)習(xí)理論。算法設(shè)計(jì)方面,機(jī)器學(xué)習(xí)理論關(guān)注可以實(shí)現(xiàn)的,行之有效的學(xué)習(xí)算法。下面是ML比較完備的知識(shí)技能圖

ML知識(shí)技能圖

入門(mén)

心路歷程,別人的經(jīng)驗(yàn)讓我們少走彎路:

機(jī)器學(xué)習(xí)入門(mén)者學(xué)習(xí)指南-研究生型入門(mén)者的親身經(jīng)歷

書(shū)籍

數(shù)學(xué)

ML&&NLP

  • 《機(jī)器學(xué)習(xí)》西瓜書(shū) 作者:周志華。 本人讀過(guò)入門(mén)級(jí)拿西瓜做案例很清晰,沒(méi)有數(shù)學(xué)基礎(chǔ)還是不要看,特別是程序員,因?yàn)橹芾蠋煂哟翁咂珜W(xué)術(shù)。

  • 《DeepLearning》花書(shū),最近中文版要出版了,稱(chēng)為圣書(shū),這個(gè)可以慢慢啃,絕對(duì)要看的。

  • 《機(jī)器學(xué)習(xí)》作者M(jìn)itchell。Mitchell是機(jī)器學(xué)習(xí)的鼻祖,第一個(gè)提出機(jī)器學(xué)習(xí)概念的人。這本書(shū)很薄,很簡(jiǎn)單。內(nèi)容很陳舊,但是都是機(jī)器學(xué)習(xí)的經(jīng)典問(wèn)題。而且,這本書(shū)概念清晰正確(很可貴啊,又簡(jiǎn)單又正確的書(shū),說(shuō)明作者功力很強(qiáng))。

  • 《神經(jīng)網(wǎng)絡(luò)與機(jī)器學(xué)習(xí)》作者:Simon Haykin。 事實(shí)上,現(xiàn)在常見(jiàn)的很多機(jī)器學(xué)習(xí)算法都發(fā)端于神經(jīng)網(wǎng)絡(luò),像SVM,深度學(xué)習(xí),CNN等等。這本書(shū)詳細(xì)的介紹了神經(jīng)網(wǎng)絡(luò)及其相關(guān)算法的所有細(xì)節(jié)。如果想深入了解的話,可以看一下。只想運(yùn)用的話,也可以隨便翻翻算法的介紹。

  • 《模式識(shí)別與機(jī)器學(xué)習(xí)》馬春鵬 有數(shù)學(xué)基礎(chǔ)再搞,不然很難受

  • 《集體編程智慧》代碼豐富,結(jié)合理論搞

  • 《機(jī)器學(xué)習(xí)算法原理與編程實(shí)戰(zhàn)》有理論有代碼

  • 《機(jī)器學(xué)習(xí)實(shí)戰(zhàn)》推薦

  • 《數(shù)據(jù)挖掘?qū)д摗肺覍W(xué)習(xí)過(guò)程中必不可少


視頻教程

一、基本功

數(shù)學(xué)基礎(chǔ)機(jī)器學(xué)習(xí)必要的數(shù)學(xué)基礎(chǔ)主要包括:

二、修行(推薦李宏毅然后后吳恩達(dá)深度學(xué)習(xí)課程,然后決定走CV OR NLP 再看CS231N 或者 CS224N)

博客等

WeChat公眾號(hào):機(jī)器之心,數(shù)盟,量子位,新智元,

文章-論文

The Discipline of Machine LearningTom Mitchell 當(dāng)年為在CMU建立機(jī)器學(xué)習(xí)系給校長(zhǎng)寫(xiě)的東西。
A Few Useful Things to Know about Machine Learning Pedro Domingos教授的大道理,也許入門(mén)時(shí)很多概念還不明白,上完公開(kāi)課后一定要再讀一遍。

其它

矩陣求導(dǎo)
知乎找答案


我自己的學(xué)習(xí)計(jì)劃

已經(jīng)大致了解這個(gè)領(lǐng)域所用到的知識(shí),根據(jù)網(wǎng)上的參考進(jìn)行1.0階段的學(xué)習(xí),看了前面的知道我對(duì)PGM特別感興趣啊,所以感謝夕小瑤(wx:xixiaoyaoQAQ)按照她的提供的知識(shí)結(jié)構(gòu)給自己定個(gè)計(jì)劃。 已經(jīng)完成的都會(huì)帶有我在學(xué)習(xí)過(guò)程中見(jiàn)到比較好的資料,或者我自己總的,這樣減少大家在學(xué)習(xí)過(guò)程中找資料的成本

第一階段(五月到六月):基本模型

輔助用視頻Ng的courses《machine learning》,臺(tái)灣國(guó)立大學(xué)林老師《機(jī)器學(xué)習(xí)基石》、《數(shù)據(jù)挖掘?qū)д摗返?、5章

第二階段(七月~):最優(yōu)化(已完成,主要是靠知乎和《統(tǒng)計(jì)學(xué)習(xí)方法》,還得繼續(xù)深入理解)

復(fù)習(xí)《概率論與數(shù)理統(tǒng)計(jì)》、理解《Deep Learning》中的4.3節(jié)和4.4節(jié),《Numerical Optimazation》、《最優(yōu)化理論與方法》袁亞湘,孫文瑜、《統(tǒng)計(jì)學(xué)習(xí)方法》、《數(shù)據(jù) 挖掘?qū)д摗?、《機(jī)器學(xué)習(xí)實(shí)戰(zhàn)》、《智能優(yōu)化方法》

  • 一階無(wú)約束優(yōu)化算法
    • 梯度下降法(步長(zhǎng)的確定方法、線搜索法,信賴(lài)域法)
  • 二階無(wú)約束優(yōu)化算法
    • 牛頓法
    • 共軛梯度法
    • 擬牛頓法
  • 約束優(yōu)化算法
    • 線性規(guī)劃(概念與應(yīng)用、單純形法、內(nèi)點(diǎn)法)
    • 二次規(guī)劃(概念與應(yīng)用、對(duì)偶法、積極集法)
    • 拉格朗日乘子法的簡(jiǎn)單認(rèn)識(shí)
  • 感知機(jī)模型
  • K近鄰模型
  • 樸素貝葉斯模型
  • 決策樹(shù)模型
  • 支持向量機(jī)模型
  • 集成分類(lèi)器
    • Bagging
    • Boosting
    • Random Forest
  • 遺傳算法
  • 模擬退火
  • 禁忌搜索算法
  • 蟻群算法
  • 粒子群優(yōu)化算法
  • LDA/PCA
  • SVD

第三階段:模式識(shí)別與深度學(xué)習(xí)

  • 貝葉斯決策(《模式分類(lèi)》)
  • 參數(shù)估計(jì)
  • 非參數(shù)方法
  • 線性判別函數(shù)
  • 淺層神經(jīng)網(wǎng)絡(luò)
    • delta方法
    • BP算法及其優(yōu)化
    • RBF網(wǎng)絡(luò)
  • 深度神經(jīng)網(wǎng)絡(luò)(DL中文版書(shū)籍)
    • Hopfield網(wǎng)絡(luò)
    • 玻爾茲曼機(jī)
    • RBM
    • DBN
    • DBM
    • CNN
    • Autoencoder
    • RNN
    • LSTM
      (CNN~LSTM)李宏毅教授的課不要太好了。一聽(tīng)就懂
  • 聚類(lèi)
    • 高斯混合密度
    • K-means
    • 層次聚類(lèi)
  • 決策樹(shù)與隨機(jī)森林
  • 特征提取與特征選擇

第四階段:

應(yīng)該是各種框架和工程,比賽吧,哈哈,到這個(gè)階段就有自己的方向,現(xiàn)在自己也不知道干啥,哈哈哈

貫穿始終:

編程是一定要的,推薦先用Python把常用算法實(shí)現(xiàn)一遍,然后把NG深度學(xué)習(xí)課程作業(yè)敲一遍,自己寫(xiě)神經(jīng)網(wǎng)絡(luò),你就會(huì)明了,一定要code,code,code。后面用tf+keras等都可以。

知識(shí)點(diǎn):(每一周深入學(xué)習(xí)一種網(wǎng)絡(luò))
《統(tǒng)計(jì)學(xué)習(xí)方法》、《Deep Learning》、《模式分類(lèi)》

  • 前饋神經(jīng)網(wǎng)絡(luò)

  • 自編碼器(Auto-Encoder)遞歸神經(jīng)網(wǎng)絡(luò)(Recursive NN) / 循環(huán)神經(jīng)網(wǎng)絡(luò)(RNN)/ 卷積神經(jīng)網(wǎng)絡(luò)(CNN) / 神經(jīng)張量網(wǎng)絡(luò) (NTN)

  • 長(zhǎng)短時(shí)記憶網(wǎng)絡(luò)(LSTM) / 卷積長(zhǎng)短時(shí)神經(jīng)網(wǎng)絡(luò)(convLSTM) / 張量遞歸神經(jīng)網(wǎng)絡(luò)(MV-RNN)/遞歸神經(jīng)張量網(wǎng)絡(luò)(RNTN)

  • 受限波爾茲曼機(jī)(RBM) / 玻爾茲曼機(jī)

  • 概率圖模型

  • 有向圖模型->貝葉斯網(wǎng)絡(luò)

  • 無(wú)向圖模型->馬爾科夫隨機(jī)場(chǎng)->條件隨機(jī)場(chǎng)

原文更新在俺的GitHub上,可能最新??梢赃M(jìn)去看看。

最后編輯于
?著作權(quán)歸作者所有,轉(zhuǎn)載或內(nèi)容合作請(qǐng)聯(lián)系作者
【社區(qū)內(nèi)容提示】社區(qū)部分內(nèi)容疑似由AI輔助生成,瀏覽時(shí)請(qǐng)結(jié)合常識(shí)與多方信息審慎甄別。
平臺(tái)聲明:文章內(nèi)容(如有圖片或視頻亦包括在內(nèi))由作者上傳并發(fā)布,文章內(nèi)容僅代表作者本人觀點(diǎn),簡(jiǎn)書(shū)系信息發(fā)布平臺(tái),僅提供信息存儲(chǔ)服務(wù)。

相關(guān)閱讀更多精彩內(nèi)容

  • 機(jī)器學(xué)習(xí)(Machine Learning)&深度學(xué)習(xí)(Deep Learning)資料(Chapter 1) 注...
    Albert陳凱閱讀 22,842評(píng)論 9 477
  • 大概很多人都會(huì)覺(jué)得,時(shí)裝模特和IT界的碼農(nóng)(注:程序員)這兩個(gè)職業(yè)怎么想都像是地球的兩極,毫不相干。同時(shí)一個(gè)成功的...
    又餓又困閱讀 2,041評(píng)論 0 3
  • 有人說(shuō),知道卻做不到,等于不知道。 年紀(jì)越來(lái)越大,越來(lái)越傾向于認(rèn)同這句話。雞湯喝過(guò)不少,喝的時(shí)候深以為然,斗志滿胸...
    薄荷草2016閱讀 252評(píng)論 0 1
  • 健身卡效應(yīng):健身房的成本非常高,如果開(kāi)卡的會(huì)員都 堅(jiān)持來(lái)鍛煉,那健身房是會(huì)虧損的。但是,每個(gè)健身房都 活得很好。原...
    龍卷風(fēng)227閱讀 235評(píng)論 0 0
  • 淅淅瀝瀝下著小雨,時(shí)間長(zhǎng)啦屋檐的雨水滴滴答答打在植物葉上花瓣上,花瓣色彩鮮艷,葉的綠更翠,水中色難得,抬...
    朵朵頤閱讀 155評(píng)論 0 1

友情鏈接更多精彩內(nèi)容