深度學(xué)習(xí)的高階數(shù)學(xué)

有了基礎(chǔ)的《概率/統(tǒng)計(jì)》、《線性代數(shù)》、《微積分》知識(shí),就可以上手深度學(xué)習(xí)的算法和實(shí)踐了。但經(jīng)過一段時(shí)間的工程實(shí)踐,慢慢覺得大多數(shù)時(shí)間都用在選模型,調(diào)超參,或者是網(wǎng)絡(luò)結(jié)構(gòu)的排列組合上。深度學(xué)習(xí)的黑盒特性越來越明顯。難道深度學(xué)習(xí)工程師就當(dāng)真是數(shù)據(jù)“煉丹師”嗎?
如果,你有了這樣的感覺,下面的視頻不妨抽時(shí)間看看(都需要翻墻):

李宏毅《Machine Learning and having it deep and structured》

不多說,直接看目錄吧。
課程地址:http://speech.ee.ntu.edu.tw/~tlkagk/courses_MLDS18.html
《Theory 1 - Why Deep Structure》
?Can shallow network fit any function
?Potential of Deep
?Is Deep better than Shallow
《Theory 2 - Optimization》
?When Gradient is Zero
?Deep Linear Network
?Does Deep Network have Local Minima
?Geometry of Loss Surfaces (Conjecture)
?Geometry of Loss Surfaces (Empirical)
《Theory 3 - Generalization 》
?Capability of Generalization
?Indicator of Generalization

Sanjeev Arora《The mathematics of machine learning and deep learning》

視頻地址:https://www.youtube.com/watch?v=r07Sofj_puQ
這是ICM2018的主題演講,雖然Sanjeev Arora作為普林斯頓計(jì)算機(jī)科學(xué)的教授,但演講內(nèi)容深入淺出,并沒有涉及大量的數(shù)學(xué)公式和推導(dǎo),這里貼一下提綱:

內(nèi)容提綱

小結(jié)

這兩部分的內(nèi)容是相互呼應(yīng)的,可以先看李宏毅老師的課程,然后在看Sanjeev Arora教授的分享總結(jié)。

?著作權(quán)歸作者所有,轉(zhuǎn)載或內(nèi)容合作請(qǐng)聯(lián)系作者
【社區(qū)內(nèi)容提示】社區(qū)部分內(nèi)容疑似由AI輔助生成,瀏覽時(shí)請(qǐng)結(jié)合常識(shí)與多方信息審慎甄別。
平臺(tái)聲明:文章內(nèi)容(如有圖片或視頻亦包括在內(nèi))由作者上傳并發(fā)布,文章內(nèi)容僅代表作者本人觀點(diǎn),簡(jiǎn)書系信息發(fā)布平臺(tái),僅提供信息存儲(chǔ)服務(wù)。

相關(guān)閱讀更多精彩內(nèi)容

  • 從小到大我們有著各種各樣的期待吧! 這種期待好像就是我們的一個(gè)一個(gè)的小愿望,這些愿望有些會(huì)隨著時(shí)間的推移而完成...
    ce2ed1b2dd70閱讀 273評(píng)論 0 1
  • 好久不曾動(dòng)筆寫些菜譜了,除了懶病犯了之外,只是擔(dān)心給大家錯(cuò)誤的指導(dǎo)。近日,有幾位朋友詢問我做鹵肉的菜譜,我在微信上...
    Emmy1978閱讀 665評(píng)論 1 1
  • 靠近水潭旁邊的山坡上有一個(gè)小水洼,真是很小的,有時(shí)候大牛來吃草的時(shí)候踩的腳印都比小水洼大一點(diǎn)。說也奇怪,這個(gè)小水洼...
    康萌故事閱讀 886評(píng)論 1 3

友情鏈接更多精彩內(nèi)容