機(jī)器學(xué)習(xí)-3:MachineLN之dl

開篇廢話:

嫌廢話太多可以直接跳到正文哦。

對(duì)外人提起人工智能感覺很牛逼很了不起、高大上或者一些其他的吹捧、羨慕的詞都出來,那么今天就通過一篇文章帶到dl的世界,如果你是小白這篇文章會(huì)感覺挺好玩,如果你是大牛,你會(huì)感覺這個(gè)玩意誰不會(huì)?!不管怎么樣請(qǐng)保持平常心,因?yàn)樯疃葘W(xué)習(xí)很普通,并且現(xiàn)在很多人感覺已經(jīng)遇到了瓶頸,大牛都在尋找其他更好的方法,但不得不承認(rèn)dl確實(shí)比傳統(tǒng)機(jī)器學(xué)習(xí)的方法好,先看一下dl的局限性,給你挖一些坑自己去填可好?(1)目前深度學(xué)習(xí)需要大量數(shù)據(jù);(2)深度學(xué)習(xí)目前還是太表淺,沒有足夠的能力進(jìn)行遷移;(3)迄今深度學(xué)習(xí)沒有自然方式來處理層級(jí)架構(gòu);(3)迄今為止的深度學(xué)習(xí)無法進(jìn)行開放推理;(4)迄今為止的深度學(xué)習(xí)不夠透明;(5)迄今為止,深度學(xué)習(xí)并沒有很好地與先驗(yàn)知識(shí)相結(jié)合;(6)到目前為止,深度學(xué)習(xí)還不能從根本上區(qū)分因果關(guān)系和相關(guān)關(guān)系;(7)深度學(xué)習(xí)假設(shè)世界是大體穩(wěn)定的,采用的方式可能是概率的;(8)到目前為止,深度學(xué)習(xí)只是一種良好的近似,其答案并不完全可信;(9)到目前為止,深度學(xué)習(xí)還難以在工程中使用;以上是Gary Marcus提出對(duì)深度學(xué)習(xí)的系統(tǒng)性批判,文章地址:https://arxiv.org/ftp/arxiv/papers/1801/1801.00631.pdf;那么我的問題又來了,以上9個(gè)方面為什么?搞明白了局限性再去思考值不值得學(xué)習(xí),不要隨大流,李開復(fù)老師有句話說的好:千萬不要讓別人駕駛你的生命之車,你要穩(wěn)穩(wěn)地坐在司機(jī)的位置上,決定自己何時(shí)要停、倒車、轉(zhuǎn)彎、加速、剎車。可以參考別人的意見,但不要隨波逐流。估計(jì)有人又開始罵了,你tm的廢話真多,趕緊上干貨,呃,不好意思,能再說幾句嗎?好吧,總之不建議大家都來追潮流,當(dāng)大家都去做一件事情的時(shí)候,那么機(jī)會(huì)往往在相反的方向上;估計(jì)很多人都記得那條讓人深思的技術(shù)成熟的曲線,先是瘋狂的上去,然后又快速的下來,然后緩慢的爬行;又有人說你太悲觀了,過去已去,把握現(xiàn)在,未來誰知?實(shí)時(shí)確實(shí)是這樣,大多數(shù)人也都這樣做的,包括我。

說了這么多廢話,該回到dl了。簡單說一下AI;AI=感知+理解+決策,目前的dl就是處理AI中的理解問題,無論是人臉檢測、識(shí)別、行人檢測、車輛檢測、車道線、語音識(shí)別等等;感知就是獲取圖像、語音等的設(shè)備,決策像無人駕駛中來不及剎車時(shí),左右是溝,中間是人,你怎么決策?損人利己?還是損己利人?哲學(xué)問題,扯得遠(yuǎn)了,但是真要商用,確實(shí)要面臨的問題很多。

那么我的問題是?

(1)你學(xué)dl的目的是什么?

(2)你喜歡你現(xiàn)在的工作嗎?dl對(duì)你現(xiàn)在的工作有什么幫助?

(3)如果那天dl熱潮過了,你還有還什么技能可能養(yǎng)家糊口?

接下來不解答上面問題了,而是看一個(gè)手寫體識(shí)別的代碼,帶你進(jìn)入word世界:

咱們順著代碼的流程走一遍,估計(jì)會(huì)有很多坑,有坑時(shí)好事,正如學(xué)習(xí)再多tricks,不如猜一遍坑,(你廢話真多,好了好了我不說了)后面的一些文章會(huì)逐漸來填起來;are you ready?

這是一段cnn的代碼來決解手寫體數(shù)字識(shí)別,(初學(xué)者會(huì)問了cnn是什么?有坑了?自己填去啊,哈哈)

(1)開始導(dǎo)入一下tensorflow,和去獲取一下mnist的數(shù)據(jù),用于后面的訓(xùn)練和測試
image

(2)定義卷積:(問題:卷積是什么? 為什么用卷積?作用是什么?)

image

(3)定義池化:(問題和上面一樣,別嫌我話多,面試時(shí)候會(huì)問到)

image.png

(4)定義BN:(問題和上面一樣)

image

(5)初始化參數(shù):卷積核參數(shù);全連接參數(shù);

image

(6)該蓋樓了。

image.png

(7)訓(xùn)練模型,其中含有了(機(jī)器學(xué)習(xí)三要素中的模型、策略、算法;還有機(jī)器學(xué)習(xí)之模型評(píng)估中的loss和準(zhǔn)確率),有了上面的基礎(chǔ),下面代碼就好理解了。

image
image

(8)一些參數(shù)和占位符。

image

上面的代碼整合起來就可以跑了;

看一下結(jié)果: loss會(huì)慢慢降,而準(zhǔn)確率會(huì)突變,這又是為什么?

image

說明:像一些衰減和正則化的方法里邊沒加,后面會(huì)慢慢補(bǔ)充,下面給大家一個(gè)簡單定義模型的框架:

image
image

(9)總結(jié):入門級(jí)的感覺這個(gè)就夠了,把上面的代碼玩透了,調(diào)調(diào)參,挖了坑一定要填起來,要不前功盡棄;到這里是一個(gè)節(jié)點(diǎn)說明你想明白了,你想學(xué)習(xí)dl,那就關(guān)注我們吧,一起堅(jiān)持下去,MachineLN與你一年之約,只要想學(xué)什么時(shí)候開始都不晚。

推薦閱讀:

  1. 機(jī)器學(xué)習(xí)-1:MachineLN之三要素

  2. 機(jī)器學(xué)習(xí)-2:MachineLN之模型評(píng)估

  3. 機(jī)器學(xué)習(xí)-3:MachineLN之dl

  4. 機(jī)器學(xué)習(xí)-4:DeepLN之CNN解析

  5. 機(jī)器學(xué)習(xí)-5:DeepLN之CNN權(quán)重更新(筆記)

  6. 機(jī)器學(xué)習(xí)-6:DeepLN之CNN源碼

  7. 機(jī)器學(xué)習(xí)-7:MachineLN之激活函數(shù)

  8. 機(jī)器學(xué)習(xí)-8:DeepLN之BN

  9. 機(jī)器學(xué)習(xí)-9:MachineLN之?dāng)?shù)據(jù)歸一化

  10. 機(jī)器學(xué)習(xí)-10:MachineLN之樣本不均衡

  11. 機(jī)器學(xué)習(xí)-11:MachineLN之過擬合

  12. 機(jī)器學(xué)習(xí)-12:MachineLN之優(yōu)化算法

  13. 機(jī)器學(xué)習(xí)-13:MachineLN之kNN

  14. 機(jī)器學(xué)習(xí)-14:MachineLN之kNN源碼

  15. 機(jī)器學(xué)習(xí)-15:MachineLN之感知機(jī)

  16. 機(jī)器學(xué)習(xí)-16:MachineLN之感知機(jī)源碼

  17. 機(jī)器學(xué)習(xí)-17:MachineLN之邏輯回歸

  18. 機(jī)器學(xué)習(xí)-18:MachineLN之邏輯回歸源碼

版權(quán)聲明:本文為博主原創(chuàng)文章,未經(jīng)博主允許不得轉(zhuǎn)載。有問題可以加微信:lp9628(注明CSDN)。

最后編輯于
?著作權(quán)歸作者所有,轉(zhuǎn)載或內(nèi)容合作請(qǐng)聯(lián)系作者
【社區(qū)內(nèi)容提示】社區(qū)部分內(nèi)容疑似由AI輔助生成,瀏覽時(shí)請(qǐng)結(jié)合常識(shí)與多方信息審慎甄別。
平臺(tái)聲明:文章內(nèi)容(如有圖片或視頻亦包括在內(nèi))由作者上傳并發(fā)布,文章內(nèi)容僅代表作者本人觀點(diǎn),簡書系信息發(fā)布平臺(tái),僅提供信息存儲(chǔ)服務(wù)。

相關(guān)閱讀更多精彩內(nèi)容

友情鏈接更多精彩內(nèi)容