機器學(xué)習(xí)

LSA

sklearn包里就能很好實現(xiàn)LSA降維并返回矩陣,先用TfIdfVectorizer構(gòu)造文本矩陣,然后用decomposition.TruncatedSVD實現(xiàn)SVD矩陣變換,記得傳入保留維度數(shù)量否則默認為2的,可參考:
http://scikit-learn.org/stable/modules/generated/sklearn.decomposition.TruncatedSVD.html

遺忘算法博客

**http://blog.csdn.net/gzdmcaoycviewmode=contents
**

自然語言處理:

http://www.cs.columbia.edu/~mcollins/
ACL: http://www.aclweb.org/anthology/

Ansj使用手冊

http://nlpchina.github.io/ansj_seg/

DP

https://bitbucket.org/michaelchughes/bnpy-dev/overview

概率密度函數(shù)/概率質(zhì)量函數(shù)

https://zh.wikipedia.org/wiki/%E6%A6%82%E7%8E%87%E8%B4%A8%E9%87%8F%E5%87%BD%E6%95%B0

伯努利分布

https://zh.wikipedia.org/wiki/%E4%BC%AF%E5%8A%AA%E5%88%A9%E5%88%86%E5%B8%83

EM算法

http://www.csuldw.com/2015/12/02/2015-12-02-EM-algorithms/

數(shù)學(xué)符號

http://baike.baidu.com/view/37054.htm

邊緣分布

https://en.wikipedia.org/wiki/Marginal_distribution

tensorflow

http://playground.tensorflow.org/#activation=tanh&batchSize=10&dataset=circle&regDataset=reg-plane&learningRate=0.03&regularizationRate=0&noise=0&networkShape=4,2&seed=0.79746&showTestData=false&discretize=false&percTrainData=50&x=true&y=true&xTimesY=false&xSquared=false&ySquared=false&cosX=false&sinX=false&cosY=false&sinY=false&collectStats=false&problem=classification&initZero=false

使用GBDT選取特征

http://www.letiantian.me/2015-03-31-use-gbdt-to-select-features/tensorflow:
http://www.leiphone.com/news/201511/UDLyNds2oSTwM2yZ.html

python for data analysis 中文版:
http://pda.readthedocs.io/en/latest/chp4.html

CNN動圖

http://cs231n.github.io/assets/conv-demo/index.html

神經(jīng)網(wǎng)絡(luò)

http://yosinski.com/deepvis
http://vision03.csail.mit.edu/cnn_art/index.html
https://github.com/yosinski/deep-visualization-toolbox

alexnet用caffe的一些定義

https://github.com/BVLC/caffe/blob/master/models/bvlc_alexnet/train_val.prototxt

玻爾茲曼機

http://202.197.191.206:8080/30/text/chapter06/6_3.htm
http://valser.org/thread-833-1-1.html
https://www.google.com/patents/CN103530689A?cl=zh
http://www.nvidia.cn/object/machine-learning-cn.html
http://shujuren.org/article/258.html

Kmeans聚類Python實戰(zhàn):http://sobuhu.com/ml/2012/11/25/kmeans-python.html

text summarization

https://www.quora.com/Has-Deep-Learning-been-applied-to-automatic-text-summarization-successfully

最后編輯于
?著作權(quán)歸作者所有,轉(zhuǎn)載或內(nèi)容合作請聯(lián)系作者
【社區(qū)內(nèi)容提示】社區(qū)部分內(nèi)容疑似由AI輔助生成,瀏覽時請結(jié)合常識與多方信息審慎甄別。
平臺聲明:文章內(nèi)容(如有圖片或視頻亦包括在內(nèi))由作者上傳并發(fā)布,文章內(nèi)容僅代表作者本人觀點,簡書系信息發(fā)布平臺,僅提供信息存儲服務(wù)。

相關(guān)閱讀更多精彩內(nèi)容

  • afinalAfinal是一個android的ioc,orm框架 https://github.com/yangf...
    passiontim閱讀 15,837評論 2 45
  • 2017.4.5 昨天沒有發(fā)是不知該寫什么,這么長時間您沒有消息,我惆悵無比,發(fā)什么才對您有價值,讓我猜不透想不通...
    83be8522010b閱讀 210評論 0 0
  • 第九十九朵玫瑰 過了年,又到了情人節(jié),陳讓心里矛盾起來 以前是“手有玫瑰無處送,從此怕見賣花人” 現(xiàn)在卻是“空有紅...
    俏檐風(fēng)鈴聲聲細閱讀 258評論 0 1

友情鏈接更多精彩內(nèi)容