機(jī)器學(xué)習(xí)(Machine Learning)&深度學(xué)習(xí)(Deep Learning)資料(中)

該資源的github地址:Qix

《人工智能和機(jī)器學(xué)習(xí)領(lǐng)域有趣的開(kāi)源項(xiàng)目》

介紹:部分中文列表

《機(jī)器學(xué)習(xí)經(jīng)典算法詳解及Python實(shí)現(xiàn)--基于SMO的SVM分類(lèi)器》

介紹:此外作者還有一篇元算法、AdaBoost python實(shí)現(xiàn)文章

《Numerical Optimization: Understanding L-BFGS》

介紹:加州伯克利大學(xué)博士Aria Haghighi寫(xiě)了一篇超贊的數(shù)值優(yōu)化博文,從牛頓法講到擬牛頓法,再講到BFGS以及L-BFGS, 圖文并茂,還有偽代碼。強(qiáng)烈推薦。

《簡(jiǎn)明深度學(xué)習(xí)方法概述(一)》

介紹:還有續(xù)集簡(jiǎn)明深度學(xué)習(xí)方法概述(二)

《R language for programmers》

介紹:R語(yǔ)言程序員私人定制版

《谷歌地圖解密:大數(shù)據(jù)與機(jī)器學(xué)習(xí)的結(jié)合》

介紹:谷歌地圖解密

《空間數(shù)據(jù)挖掘常用方法》

介紹:空間數(shù)據(jù)挖掘常用方法

《Use Google's Word2Vec for movie reviews》

介紹:Kaggle新比賽 ”When bag of words meets bags of popcorn“ aka ”邊學(xué)邊用word2vec和deep learning做NLP“ 里面全套教程教一步一步用python和gensim包的word2vec模型,并在實(shí)際比賽里面比調(diào)參數(shù)和清數(shù)據(jù)。 如果已裝過(guò)gensim不要忘升級(jí)

《PyNLPIR》

介紹:PyNLPIR提供了NLPIR/ICTCLAS漢語(yǔ)分詞的Python接口,此外Zhon提供了常用漢字常量,如CJK字符和偏旁,中文標(biāo)點(diǎn),拼音,和漢字正則表達(dá)式(如找到文本中的繁體字)

《深度卷積神經(jīng)網(wǎng)絡(luò)下圍棋》

介紹:這文章說(shuō)把最近模型識(shí)別上的突破應(yīng)用到圍棋軟件上,打16萬(wàn)張職業(yè)棋譜訓(xùn)練模型識(shí)別功能。想法不錯(cuò)。訓(xùn)練后目前能做到不用計(jì)算,只看棋盤(pán)就給出下一步,大約10級(jí)棋力。但這篇文章太過(guò)樂(lè)觀,說(shuō)什么人類(lèi)的最后一塊堡壘馬上就要跨掉了。話(huà)說(shuō)得太早。不過(guò),如果與別的軟件結(jié)合應(yīng)該還有潛力可挖。@萬(wàn)精油墨綠

《NIPS審稿實(shí)驗(yàn)》

介紹:UT Austin教授Eric Price關(guān)于今年NIPS審稿實(shí)驗(yàn)的詳細(xì)分析,他表示,根據(jù)這次實(shí)驗(yàn)的結(jié)果,如果今年NIPS重新審稿的話(huà),會(huì)有一半的論文被拒。

《2014年最佳的大數(shù)據(jù),數(shù)據(jù)科學(xué)文章》

介紹:KDNuggets分別總結(jié)了2014年14個(gè)閱讀最多以及分享最多的文章。我們從中可以看到多個(gè)主題——深度學(xué)習(xí),數(shù)據(jù)科學(xué)家職業(yè),教育和薪酬,學(xué)習(xí)數(shù)據(jù)科學(xué)的工具比如R和Python以及大眾投票的最受歡迎的數(shù)據(jù)科學(xué)和數(shù)據(jù)挖掘語(yǔ)言

《機(jī)器學(xué)習(xí)經(jīng)典算法詳解及Python實(shí)現(xiàn)--線(xiàn)性回歸(Linear Regression)算法》

介紹:Python實(shí)現(xiàn)線(xiàn)性回歸,作者還有其他很棒的文章推薦可以看看

《2014中國(guó)大數(shù)據(jù)技術(shù)大會(huì)33位核心專(zhuān)家演講PDF》

介紹:2014中國(guó)大數(shù)據(jù)技術(shù)大會(huì)33位核心專(zhuān)家演講PDF下載

《使用RNN和Paragraph Vector做情感分析》

介紹:這是T. Mikolov & Y. Bengio最新論文Ensemble of Generative and Discriminative Techniques for Sentiment Analysis of Movie Reviews ,使用RNN和PV在情感分析效果不錯(cuò),[項(xiàng)目代碼](https://github.com/mesnilgr/iclr15)公布在github(目前是空的)。這意味著ParagraphVector終于揭開(kāi)面紗了嘛。

《NLPIR/ICTCLAS2015分詞系統(tǒng)大會(huì)上的技術(shù)演講 》

介紹:NLPIR/ICTCLAS2015分詞系統(tǒng)發(fā)布與用戶(hù)交流大會(huì)上的演講,請(qǐng)更多朋友檢閱新版分詞吧。 我們實(shí)驗(yàn)室同學(xué)的演講包括:孫夢(mèng)姝-基于評(píng)論觀點(diǎn)挖掘的商品搜索技術(shù)研究李然-主題模型

《Machine Learning is Fun!》

介紹:Convex Neural Networks 解決維數(shù)災(zāi)難

《CNN的反向求導(dǎo)及練習(xí)》

介紹:介紹CNN參數(shù)在使用bp算法時(shí)該怎么訓(xùn)練,畢竟CNN中有卷積層和下采樣層,雖然和MLP的bp算法本質(zhì)上相同,但形式上還是有些區(qū)別的,很顯然在完成CNN反向傳播前了解bp算法是必須的。此外作者也做了一個(gè)資源集:機(jī)器學(xué)習(xí),深度學(xué)習(xí),視覺(jué),數(shù)學(xué)等

《正則表達(dá)式優(yōu)化成Trie樹(shù) 》

介紹:如果要在一篇文章中匹配十萬(wàn)個(gè)關(guān)鍵詞怎么辦?Aho-Corasick算法利用添加了返回邊的Trie樹(shù),能夠在線(xiàn)性時(shí)間內(nèi)完成匹配。 但如果匹配十萬(wàn)個(gè)正則表達(dá)式呢 ? 這時(shí)候可以用到把多個(gè)正則優(yōu)化成Trie樹(shù)的方法,如日本人寫(xiě)的Regexp::Trie

《Deep learning Reading List》

介紹:深度學(xué)習(xí)閱讀清單

《Caffe》

介紹:Caffe是一個(gè)開(kāi)源的深度學(xué)習(xí)框架,作者目前在google工作,作者主頁(yè)Yangqing Jia (賈揚(yáng)清)

《GoogLeNet深度學(xué)習(xí)模型的Caffe復(fù)現(xiàn) 》

介紹:2014 ImageNet冠軍GoogLeNet深度學(xué)習(xí)模型的Caffe復(fù)現(xiàn)模型,GoogleNet論文.

《LambdaNet,Haskell實(shí)現(xiàn)的開(kāi)源人工神經(jīng)網(wǎng)絡(luò)庫(kù) 》

介紹:LambdaNetLambdaNet是由Haskell實(shí)現(xiàn)的一個(gè)開(kāi)源的人工神經(jīng)網(wǎng)絡(luò)庫(kù),它抽象了網(wǎng)絡(luò)創(chuàng)建、訓(xùn)練并使用了高階函數(shù)。該庫(kù)還提供了一組預(yù)定義函數(shù),用戶(hù)可以采取多種方式組合這些函數(shù)來(lái)操作現(xiàn)實(shí)世界數(shù)據(jù)。

《百度余凱&張潼機(jī)器學(xué)習(xí)視頻》

介紹:如果你從事互聯(lián)網(wǎng)搜索,在線(xiàn)廣告,用戶(hù)行為分析,圖像識(shí)別,自然語(yǔ)言理解,或者生物信息學(xué),智能機(jī)器人,金融預(yù)測(cè),那么這門(mén)核心課程你必須深入了解。

《楊強(qiáng)在TEDxNanjing談智能的起源》

介紹:"人工智能研究分許多流派。其中之一以IBM為代表,認(rèn)為只要有高性能計(jì)算就可得到智能,他們的‘深藍(lán)’擊敗了世界象棋冠軍;另一流派認(rèn)為智能來(lái)自動(dòng)物本能;還有個(gè)很強(qiáng)的流派認(rèn)為只要找來(lái)專(zhuān)家,把他們的思維用邏輯一條條寫(xiě)下,放到計(jì)算機(jī)里就行……" 楊強(qiáng)在TEDxNanjing談智能的起源

《深度RNN/LSTM用于結(jié)構(gòu)化學(xué)習(xí) 0)序列標(biāo)注Connectionist Temporal ClassificationICML06》

介紹:1)機(jī)器翻譯Sequence to Sequence NIPS142)成分句法GRAMMAR AS FOREIGN LANGUAGE

《Deep Learning實(shí)戰(zhàn)之word2vec》

介紹:網(wǎng)易有道的三位工程師寫(xiě)的word2vec的解析文檔,從基本的詞向量/統(tǒng)計(jì)語(yǔ)言模型->NNLM->Log-Linear/Log-Bilinear->層次化Log-Bilinear,到CBOW和Skip-gram模型,再到word2vec的各種tricks,公式推導(dǎo)與代碼,基本上是網(wǎng)上關(guān)于word2vec資料的大合集,對(duì)word2vec感興趣的朋友可以看看

《Machine learning open source software》

介紹:機(jī)器學(xué)習(xí)開(kāi)源軟件,收錄了各種機(jī)器學(xué)習(xí)的各種編程語(yǔ)言學(xué)術(shù)與商業(yè)的開(kāi)源軟件.與此類(lèi)似的還有很多例如:DMOZ - Computers: Artificial Intelligence: Machine Learning: Software,LIBSVM -- A Library for Support Vector Machines,Weka 3: Data Mining Software in Java,scikit-learn:Machine Learning in Python,Natural Language Toolkit:NLTK,MAchine Learning for LanguagE Toolkit,Data Mining - Fruitful and Fun,Open Source Computer Vision Library

《機(jī)器學(xué)習(xí)入門(mén)者學(xué)習(xí)指南》

介紹:作者是計(jì)算機(jī)研二(寫(xiě)文章的時(shí)候,現(xiàn)在是2015年了應(yīng)該快要畢業(yè)了),專(zhuān)業(yè)方向自然語(yǔ)言處理.這是一點(diǎn)他的經(jīng)驗(yàn)之談.對(duì)于入門(mén)的朋友或許會(huì)有幫助

《A Tour of Machine Learning Algorithms》

介紹:這是一篇關(guān)于機(jī)器學(xué)習(xí)算法分類(lèi)的文章,非常好

《2014年的《機(jī)器學(xué)習(xí)日?qǐng)?bào)》大合集》

介紹:機(jī)器學(xué)習(xí)日?qǐng)?bào)里面推薦很多內(nèi)容,在這里有一部分的優(yōu)秀內(nèi)容就是來(lái)自機(jī)器學(xué)習(xí)日?qǐng)?bào).

《 Image classification with deep learning常用模型》

介紹:這是一篇關(guān)于圖像分類(lèi)在深度學(xué)習(xí)中的文章

《自動(dòng)語(yǔ)音識(shí)別:深度學(xué)習(xí)方法》

介紹:作者與Bengio的兄弟Samy 09年合編《自動(dòng)語(yǔ)音識(shí)別:核方法》 3)李開(kāi)復(fù)1989年《自動(dòng)語(yǔ)音識(shí)別》專(zhuān)著,其博導(dǎo)、94年圖靈獎(jiǎng)得主Raj Reddy作序

《NLP中的中文分詞技術(shù)》

介紹: 作者是360電商技術(shù)組成員,這是一篇NLP在中文分詞中的應(yīng)用

《Using convolutional neural nets to detect facial keypoints tutorial》

介紹: 使用deep learning的人臉關(guān)鍵點(diǎn)檢測(cè),此外還有一篇AWS部署教程

《書(shū)籍推薦:Advanced Structured Prediction》

介紹: 由Sebastian Nowozin等人編纂MIT出版的新書(shū)《Advanced Structured Prediction》http://t.cn/RZxipKG,匯集了結(jié)構(gòu)化預(yù)測(cè)領(lǐng)域諸多牛文,涉及CV、NLP等領(lǐng)域,值得一讀。網(wǎng)上公開(kāi)的幾章草稿:,,,,

《An Introduction to Matrix Concentration Inequalities》

介紹: Tropp把數(shù)學(xué)家用高深裝逼的數(shù)學(xué)語(yǔ)言寫(xiě)的矩陣概率不等式用初等的方法寫(xiě)出來(lái),是非常好的手冊(cè),領(lǐng)域內(nèi)的paper各種證明都在用里面的結(jié)果。雖說(shuō)是初等的,但還是非常的難

《The free big data sources you should know》

介紹: 不容錯(cuò)過(guò)的免費(fèi)大數(shù)據(jù)集,有些已經(jīng)是耳熟能詳,有些可能還是第一次聽(tīng)說(shuō),內(nèi)容跨越文本、數(shù)據(jù)、多媒體等,讓他們伴你開(kāi)始數(shù)據(jù)科學(xué)之旅吧,具體包括:Data.gov、US Census Bureau、European Union Open Data Portal、Data.gov.uk等

《A Brief Overview of Deep Learning》

介紹: 谷歌科學(xué)家、Hinton親傳弟子Ilya Sutskever的深度學(xué)習(xí)綜述及實(shí)際建議

《A Deep Dive into Recurrent Neural Nets》

介紹: 非常好的討論遞歸神經(jīng)網(wǎng)絡(luò)的文章,覆蓋了RNN的概念、原理、訓(xùn)練及優(yōu)化等各個(gè)方面內(nèi)容,強(qiáng)烈推薦!本文作者Nikhil Buduma還有一篇Deep Learning in a Nutshell值得推薦

《機(jī)器學(xué)習(xí):學(xué)習(xí)資源》

介紹:里面融合了很多的資源,例如競(jìng)賽,在線(xiàn)課程,demo,數(shù)據(jù)整合等。有分類(lèi)

最后編輯于
?著作權(quán)歸作者所有,轉(zhuǎn)載或內(nèi)容合作請(qǐng)聯(lián)系作者
【社區(qū)內(nèi)容提示】社區(qū)部分內(nèi)容疑似由AI輔助生成,瀏覽時(shí)請(qǐng)結(jié)合常識(shí)與多方信息審慎甄別。
平臺(tái)聲明:文章內(nèi)容(如有圖片或視頻亦包括在內(nèi))由作者上傳并發(fā)布,文章內(nèi)容僅代表作者本人觀點(diǎn),簡(jiǎn)書(shū)系信息發(fā)布平臺(tái),僅提供信息存儲(chǔ)服務(wù)。

相關(guān)閱讀更多精彩內(nèi)容

友情鏈接更多精彩內(nèi)容