原文更新在俺的GitHub上,如果覺(jué)得好點(diǎn)個(gè)star謝謝。
機(jī)器學(xué)習(xí)/人工智能/自然語(yǔ)言處理資料教程集合
前面基本是我看過(guò)的書(shū)籍和教程推薦,在最后面有我的學(xué)習(xí)路線,避免多走彎路,實(shí)現(xiàn)高效系統(tǒng)學(xué)習(xí)。
目錄:
基礎(chǔ)概念和認(rèn)知:
機(jī)器學(xué)習(xí) 機(jī)器學(xué)習(xí)是近20多年興起的一門(mén)多領(lǐng)域交叉學(xué)科,涉及概率論、統(tǒng)計(jì)學(xué)、逼近論、凸分析、算法復(fù)雜度理論等多門(mén)學(xué)科。機(jī)器學(xué)習(xí)理論主要是設(shè)計(jì)和分析一些讓計(jì)算機(jī)可以自動(dòng)“學(xué)習(xí)”的算法。機(jī)器學(xué)習(xí)算法是一類(lèi)從數(shù)據(jù)中自動(dòng)分析獲得規(guī)律,并利用規(guī)律對(duì)未知數(shù)據(jù)進(jìn)行預(yù)測(cè)的算法。因?yàn)閷W(xué)習(xí)算法中涉及了大量的統(tǒng)計(jì)學(xué)理論,機(jī)器學(xué)習(xí)與統(tǒng)計(jì)推斷學(xué)聯(lián)系尤為密切,也被稱(chēng)為統(tǒng)計(jì)學(xué)習(xí)理論。算法設(shè)計(jì)方面,機(jī)器學(xué)習(xí)理論關(guān)注可以實(shí)現(xiàn)的,行之有效的學(xué)習(xí)算法。下面是ML比較完備的知識(shí)技能圖

-
機(jī)器學(xué)習(xí)與數(shù)據(jù)挖掘的區(qū)別
- 機(jī)器學(xué)習(xí)關(guān)注從訓(xùn)練數(shù)據(jù)中學(xué)到已知屬性進(jìn)行預(yù)測(cè)是方法
- 數(shù)據(jù)挖掘側(cè)重從數(shù)據(jù)中發(fā)現(xiàn)未知屬性是個(gè)概念
- 深度學(xué)習(xí)與機(jī)器學(xué)習(xí)區(qū)別
- 人工智能只是定義
- 機(jī)器學(xué)習(xí)、統(tǒng)計(jì)分析、數(shù)據(jù)挖掘、神經(jīng)網(wǎng)絡(luò)、人工智能、模式識(shí)別之間的關(guān)系是什么?
入門(mén)
心路歷程,別人的經(jīng)驗(yàn)讓我們少走彎路:
機(jī)器學(xué)習(xí)入門(mén)者學(xué)習(xí)指南-研究生型入門(mén)者的親身經(jīng)歷
書(shū)籍
數(shù)學(xué)
- 《數(shù)學(xué)之美》作者:吳軍 講述數(shù)學(xué)在NLP語(yǔ)音等方面應(yīng)用
- 《程序員的數(shù)學(xué)系列》這套共三本含高數(shù),線代,統(tǒng)計(jì)。寫(xiě)的很好
- 《線性代數(shù)應(yīng)該這樣學(xué)》 從本質(zhì)來(lái)講,讓你耳目一新,我就感覺(jué)線代白學(xué)了
- 《The Elements of Statistical Learning》后期精進(jìn)可以可以讀讀,挺難的
- 《統(tǒng)計(jì)學(xué)習(xí)方法》作者:李航 講解統(tǒng)計(jì)的一些方法。是機(jī)器學(xué)習(xí)的數(shù)學(xué)基礎(chǔ),另外需要線性代數(shù),概率論,統(tǒng)計(jì)學(xué)等數(shù)學(xué)知識(shí) 后面階段少不了推算公式的
ML&&NLP
《機(jī)器學(xué)習(xí)》西瓜書(shū) 作者:周志華。 本人讀過(guò)入門(mén)級(jí)拿西瓜做案例很清晰,沒(méi)有數(shù)學(xué)基礎(chǔ)還是不要看,特別是程序員,因?yàn)橹芾蠋煂哟翁咂珜W(xué)術(shù)。
《DeepLearning》花書(shū),最近中文版要出版了,稱(chēng)為圣書(shū),這個(gè)可以慢慢啃,絕對(duì)要看的。
《機(jī)器學(xué)習(xí)》作者M(jìn)itchell。Mitchell是機(jī)器學(xué)習(xí)的鼻祖,第一個(gè)提出機(jī)器學(xué)習(xí)概念的人。這本書(shū)很薄,很簡(jiǎn)單。內(nèi)容很陳舊,但是都是機(jī)器學(xué)習(xí)的經(jīng)典問(wèn)題。而且,這本書(shū)概念清晰正確(很可貴啊,又簡(jiǎn)單又正確的書(shū),說(shuō)明作者功力很強(qiáng))。
《神經(jīng)網(wǎng)絡(luò)與機(jī)器學(xué)習(xí)》作者:Simon Haykin。 事實(shí)上,現(xiàn)在常見(jiàn)的很多機(jī)器學(xué)習(xí)算法都發(fā)端于神經(jīng)網(wǎng)絡(luò),像SVM,深度學(xué)習(xí),CNN等等。這本書(shū)詳細(xì)的介紹了神經(jīng)網(wǎng)絡(luò)及其相關(guān)算法的所有細(xì)節(jié)。如果想深入了解的話,可以看一下。只想運(yùn)用的話,也可以隨便翻翻算法的介紹。
《模式識(shí)別與機(jī)器學(xué)習(xí)》馬春鵬 有數(shù)學(xué)基礎(chǔ)再搞,不然很難受
《集體編程智慧》代碼豐富,結(jié)合理論搞
《機(jī)器學(xué)習(xí)算法原理與編程實(shí)戰(zhàn)》有理論有代碼
《機(jī)器學(xué)習(xí)實(shí)戰(zhàn)》推薦
《數(shù)據(jù)挖掘?qū)д摗肺覍W(xué)習(xí)過(guò)程中必不可少
資料已經(jīng)完全夠了,沒(méi)有必要再貪多了,有積累看論文才是王道
視頻教程
一、基本功
數(shù)學(xué)基礎(chǔ)機(jī)器學(xué)習(xí)必要的數(shù)學(xué)基礎(chǔ)主要包括:
- 線性代數(shù)
英文無(wú)障礙的話推薦MIT的Gilbert Strang
李宏毅也教過(guò)線性代數(shù)哦
實(shí)現(xiàn)不行看看張宇的考研視頻也行,再者還是看看程序員的數(shù)學(xué) - 統(tǒng)計(jì)基礎(chǔ)
- Introduction to Statistics: Descriptive Statistics
- Probabilistic Systems Analysis and Applied Probability | 概率 ( 可選)
- Introduction to Statistics: Inference
- 以上是國(guó)外課程,自己拿大學(xué)相關(guān)課本看看或者到網(wǎng)易公開(kāi)課找,推薦《程序員的數(shù)學(xué)之線性代數(shù)》
- 編程基礎(chǔ)
- Python,R這些從廖雪峰,菜鳥(niǎo)教程還有等等看看文檔就行 ,numpy,sk,pandas這些庫(kù)也要會(huì)
- Programming for Everybody (Python)
- DataCamp: Learn R with R tutorials and coding challenges(R)
- Introduction to Computer Science:Build a Search Engine & a Social Network
二、修行(推薦李宏毅然后后吳恩達(dá)深度學(xué)習(xí)課程,然后決定走CV OR NLP 再看CS231N 或者 CS224N)
- 臺(tái)灣國(guó)立大學(xué)李宏毅中文教學(xué)講課幽默易懂,很多不清楚的看了就懂了,它還有個(gè)PPT合集,堪稱(chēng)一天學(xué)完深度學(xué)習(xí),淺顯易懂可以搜搜
-
吳恩達(dá)深度學(xué)習(xí)新課可以搜單個(gè)課程這樣可以旁聽(tīng)不要錢(qián)
【網(wǎng)易云課堂現(xiàn)在和吳恩達(dá)合作了,免費(fèi)的中文字幕體驗(yàn)更好,作業(yè)還在courseras上寫(xiě)吧】 - 2014 Andrew Ng (Stanford)機(jī)器學(xué)習(xí):英文原版視頻 這就是針對(duì)自學(xué)而設(shè)計(jì)的,免費(fèi)還有修課認(rèn)證。“老師講的是深入淺出,不用太擔(dān)心數(shù)學(xué)方面的東西。而且作業(yè)也非常適合入門(mén)者,都是設(shè)計(jì)好的程序框架,有作業(yè)指南,根據(jù)作業(yè)指南填寫(xiě)該完成的部分就行?!?和林軒田課程二選一)
- 2016年 林軒田(國(guó)立臺(tái)灣大學(xué)) 機(jī)器學(xué)習(xí)基石 (Machine Learning Foundations) -- 華文的教學(xué)講解
- Neural Networks for Machine Learning Hinton的大牛課程,可想而知
- 沒(méi)有公式,沒(méi)有代碼的深度學(xué)習(xí)入門(mén)視頻,每集五分鐘
- CS231N Stanford winter 2016FeiFei 計(jì)算機(jī)視覺(jué)大牛李飛飛的課程
- CS224N NLP Winter 2017 搞NLP的可以看看,最新前言課程 slides
- Udacity 的 ML & DL 最近剛看的,DL兩個(gè)人合作以對(duì)話形式,很幽默
- tornadomeet機(jī)器學(xué)習(xí)筆記
- 上面學(xué)好了,足夠了
博客等
WeChat公眾號(hào):機(jī)器之心,數(shù)盟,量子位,新智元,
- 我愛(ài)機(jī)器學(xué)習(xí)
- MITBBS- 電腦網(wǎng)絡(luò) - 數(shù)據(jù)科學(xué)版
- 機(jī)器之心
- 果殼 > 機(jī)器學(xué)習(xí)小組
- 統(tǒng)計(jì)之都 ? 統(tǒng)計(jì)學(xué)世界 ? 數(shù)據(jù)挖掘和機(jī)器學(xué)習(xí)
- 北郵人論壇?>>?學(xué)術(shù)科技?>>?機(jī)器學(xué)習(xí)與數(shù)據(jù)挖掘
文章-論文
The Discipline of Machine LearningTom Mitchell 當(dāng)年為在CMU建立機(jī)器學(xué)習(xí)系給校長(zhǎng)寫(xiě)的東西。
A Few Useful Things to Know about Machine Learning Pedro Domingos教授的大道理,也許入門(mén)時(shí)很多概念還不明白,上完公開(kāi)課后一定要再讀一遍。
其它
矩陣求導(dǎo)
知乎找答案
我自己的學(xué)習(xí)計(jì)劃
已經(jīng)大致了解這個(gè)領(lǐng)域所用到的知識(shí),根據(jù)網(wǎng)上的參考進(jìn)行1.0階段的學(xué)習(xí),看了前面的知道我對(duì)PGM特別感興趣啊,所以感謝夕小瑤(wx:xixiaoyaoQAQ)按照她的提供的知識(shí)結(jié)構(gòu)給自己定個(gè)計(jì)劃。 已經(jīng)完成的都會(huì)帶有我在學(xué)習(xí)過(guò)程中見(jiàn)到比較好的資料,或者我自己總的,這樣減少大家在學(xué)習(xí)過(guò)程中找資料的成本
第一階段(五月到六月):基本模型
輔助用視頻Ng的courses《machine learning》,臺(tái)灣國(guó)立大學(xué)林老師《機(jī)器學(xué)習(xí)基石》、《數(shù)據(jù)挖掘?qū)д摗返?、5章
- 感知機(jī)(Perceptron)(已完成)
- 線性回歸模型(Linear regression model) (已完成)
- 邏輯回歸模型(Logistic regression model) (已完成)
- 淺層神經(jīng)網(wǎng)絡(luò)(Neural Network) (已完成)
- 支持向量機(jī)(Support Vector Machine)(已完成)
- 交叉驗(yàn)證(Cross Validation)[[1]] [2] [3] [4](已完成)
- 聚類(lèi)[1] (已完成)
- 內(nèi)積與映射,線性相關(guān)/無(wú)關(guān),特征值/特征向量、特征向量、特征分解、矩陣的跡、奇異值分解(SVD)、譜定理
第二階段(七月~):最優(yōu)化(已完成,主要是靠知乎和《統(tǒng)計(jì)學(xué)習(xí)方法》,還得繼續(xù)深入理解)
復(fù)習(xí)《概率論與數(shù)理統(tǒng)計(jì)》、理解《Deep Learning》中的4.3節(jié)和4.4節(jié),《Numerical Optimazation》、《最優(yōu)化理論與方法》袁亞湘,孫文瑜、《統(tǒng)計(jì)學(xué)習(xí)方法》、《數(shù)據(jù) 挖掘?qū)д摗?、《機(jī)器學(xué)習(xí)實(shí)戰(zhàn)》、《智能優(yōu)化方法》
- 一階無(wú)約束優(yōu)化算法
- 梯度下降法(步長(zhǎng)的確定方法、線搜索法,信賴(lài)域法)
- 二階無(wú)約束優(yōu)化算法
- 牛頓法
- 共軛梯度法
- 擬牛頓法
- 約束優(yōu)化算法
- 線性規(guī)劃(概念與應(yīng)用、單純形法、內(nèi)點(diǎn)法)
- 二次規(guī)劃(概念與應(yīng)用、對(duì)偶法、積極集法)
- 拉格朗日乘子法的簡(jiǎn)單認(rèn)識(shí)
- 感知機(jī)模型
- K近鄰模型
- 樸素貝葉斯模型
- 決策樹(shù)模型
- 支持向量機(jī)模型
- 集成分類(lèi)器
- Bagging
- Boosting
- Random Forest
- 遺傳算法
- 模擬退火
- 禁忌搜索算法
- 蟻群算法
- 粒子群優(yōu)化算法
- LDA/PCA
- SVD
第三階段:模式識(shí)別與深度學(xué)習(xí)
- 貝葉斯決策(《模式分類(lèi)》)
- 參數(shù)估計(jì)
- 非參數(shù)方法
- 線性判別函數(shù)
- 淺層神經(jīng)網(wǎng)絡(luò)
- delta方法
- BP算法及其優(yōu)化
- RBF網(wǎng)絡(luò)
- 深度神經(jīng)網(wǎng)絡(luò)(DL中文版書(shū)籍)
- Hopfield網(wǎng)絡(luò)
- 玻爾茲曼機(jī)
- RBM
- DBN
- DBM
- CNN
- Autoencoder
- RNN
- LSTM
(CNN~LSTM)李宏毅教授的課不要太好了。一聽(tīng)就懂
- 聚類(lèi)
- 高斯混合密度
- K-means
- 層次聚類(lèi)
- 決策樹(shù)與隨機(jī)森林
- 特征提取與特征選擇
第四階段:
應(yīng)該是各種框架和工程,比賽吧,哈哈,到這個(gè)階段就有自己的方向,現(xiàn)在自己也不知道干啥,哈哈哈
貫穿始終:
編程是一定要的,推薦先用Python把常用算法實(shí)現(xiàn)一遍,然后把NG深度學(xué)習(xí)課程作業(yè)敲一遍,自己寫(xiě)神經(jīng)網(wǎng)絡(luò),你就會(huì)明了,一定要code,code,code。后面用tf+keras等都可以。
知識(shí)點(diǎn):(每一周深入學(xué)習(xí)一種網(wǎng)絡(luò))
《統(tǒng)計(jì)學(xué)習(xí)方法》、《Deep Learning》、《模式分類(lèi)》
前饋神經(jīng)網(wǎng)絡(luò)
自編碼器(Auto-Encoder)遞歸神經(jīng)網(wǎng)絡(luò)(Recursive NN) / 循環(huán)神經(jīng)網(wǎng)絡(luò)(RNN)/ 卷積神經(jīng)網(wǎng)絡(luò)(CNN) / 神經(jīng)張量網(wǎng)絡(luò) (NTN)
長(zhǎng)短時(shí)記憶網(wǎng)絡(luò)(LSTM) / 卷積長(zhǎng)短時(shí)神經(jīng)網(wǎng)絡(luò)(convLSTM) / 張量遞歸神經(jīng)網(wǎng)絡(luò)(MV-RNN)/遞歸神經(jīng)張量網(wǎng)絡(luò)(RNTN)
受限波爾茲曼機(jī)(RBM) / 玻爾茲曼機(jī)
概率圖模型
有向圖模型->貝葉斯網(wǎng)絡(luò)
無(wú)向圖模型->馬爾科夫隨機(jī)場(chǎng)->條件隨機(jī)場(chǎng)
原文更新在俺的GitHub上,可能最新??梢赃M(jìn)去看看。