7??28 關(guān)于AI和深度學(xué)習(xí)

一 AI 背景 - 深度學(xué)習(xí)的興起

1 關(guān)鍵性應(yīng)用

其實(shí)還沒有。無人駕駛 (汽車 和 飛機(jī)),目前也只是實(shí)驗(yàn)階段。

AI前沿介紹? 描述一線公司的主要AI產(chǎn)品 。這里面囊括 了醫(yī)療,編輯,翻譯 , 定位技術(shù)。這些產(chǎn)品還并沒有被大眾所熟知。但是這些已經(jīng)足夠顯示AI的力量了。


2 AI的身邊的應(yīng)用舉例

圖像分類? 拍立淘

? ? ? 美國計(jì)算機(jī)協(xié)會(huì)(ACM)公布了2015年度杰出科學(xué)家名單,在上榜的兩位亞裔學(xué)者中,阿里巴巴圖像搜索的領(lǐng)軍人物、阿里巴巴搜索事業(yè)部研究員華先勝位列其中。

? ? ? 國際電氣與電子工程師協(xié)會(huì)(IEEE)也公布了華先勝當(dāng)選2016年度IEEE Fellow(IEEE會(huì)士)的消息,以嘉獎(jiǎng)其“為多媒體內(nèi)容分析和圖像搜索做出的突出貢獻(xiàn)”。

? ? ? ? 廣告推薦算法

? ? ? ? 基于語音的 谷歌的機(jī)器翻譯

3 藝術(shù)文化和 深度學(xué)習(xí)

Google Deep Dream

Prisma

Neural Style?

二 深度學(xué)習(xí) 的 科普

2.1 線性分類器, 分類和聚類算法

? ? 線性分類器里面最簡單的例子是 大學(xué)物理里面, 用打點(diǎn)計(jì)時(shí)器在紙條上打點(diǎn)。實(shí)際上擬合的函數(shù) 是 v = gt

2.2 DNN - 深度神經(jīng)網(wǎng)絡(luò)

假設(shè)我們要預(yù)測 美國 的 房子 和 總價(jià)格 的 關(guān)系,這時(shí)我們的參數(shù)不只一個(gè)了





2.3? 擬合 和 欠擬合 , 訓(xùn)練集和測試集(驗(yàn)證集)

? 3.1欠擬合(Over fittintg)? 訓(xùn)練誤差比較大

? ? ? ? 1 參數(shù)少,因?yàn)檫^度關(guān)注精簡計(jì)算量引起的。

? ? ? ? 2 使用的網(wǎng)絡(luò)不對

? ? 3.2 過擬合()? 測試誤差 比 訓(xùn)練誤差大

? ? ? ? ? 1 訓(xùn)練樣本少?

? ? ? ? ? 2 參數(shù)過大

解決方法:? 解決過擬合的最主要的思想,是先保證參數(shù)和問題域相符合。通過增加訓(xùn)練誤差 減少測試誤差。

? ? ? ? ? ? ? 1 dropout? (隨機(jī)失活)在同一個(gè)模型上訓(xùn)練處不同的參數(shù) 2 提前終止迭代次數(shù)? 3 增大訓(xùn)練樣本

2.4 loss 函數(shù)和 優(yōu)化器

? 4.1 支持向量機(jī)? -- 基于核函數(shù)的算法

? 4.2 交叉熵 SoftMax

5 卷積神經(jīng)網(wǎng)絡(luò)? CNN 和 圖像濾波 (

? ? ? 卷積 核 和 濾波, 使用卷積和對 圖像特征進(jìn)行抽取。

? ? ? 優(yōu)點(diǎn) :1 共享卷積核參數(shù),優(yōu)化了計(jì)算量? 2 不需要手動(dòng)選取圖像特征 (相比以前的機(jī)器學(xué)習(xí)算法,使用SVM的分類算法,簡化很多) 4 抽取的圖像信息豐富,表達(dá)效果好

? ? ? 缺點(diǎn) :? 1依賴GPU硬件? 2 需要大量的樣本 3 隱層的輸出物理意義對人類來說較難理解。

比如說貓,神經(jīng)網(wǎng)絡(luò)是怎么理解一只貓的,這跟我們?nèi)祟惔竽X怎么理解一只貓是一類的問題,我們用卷積的方式

? LeNet,這是最早用于數(shù)字識(shí)別的CNN

? AlexNet, 2012 ILSVRC比賽遠(yuǎn)超第2名的CNN,比

? ZF Net, 2013 ILSVRC比賽冠軍

? GoogLeNet, 2014 ILSVRC比賽冠軍

? VGGNet, 2014 ILSVRC比賽中的模型,圖像識(shí)別略差于GoogLeNet,但是在很多圖像轉(zhuǎn)化學(xué)習(xí)問題(比如object detection)上效果奇好

? FCN, Fast-RCNN,Faster-RCNN 是目標(biāo)檢測界的領(lǐng)軍人物Ross Girshick團(tuán)隊(duì)在2015年的又一力作。簡單網(wǎng)絡(luò)目標(biāo)檢測速度達(dá)到17fps,在PASCAL VOC上準(zhǔn)確率為59.9%;復(fù)雜網(wǎng)絡(luò)達(dá)到5fps,準(zhǔn)確率78.8%。

6 NN 框架

Caffe? 比較高效,一般的訓(xùn)練無需寫代碼,有python和mathlab的接口

1 需要先把圖片轉(zhuǎn)換成LMDB格式

2 定義網(wǎng)結(jié)構(gòu)

3 定義solver

4 一行命令開始訓(xùn)練

比較早期的框架,也是出產(chǎn)品比較多的框架。但是是由C++寫的。所以發(fā)展比較慢了。

Tensorflow

谷歌開源的一個(gè)框架,社區(qū)非?;钴S。寫法相比Face的PyTorch比較繁瑣

PyTorch 對于顯卡的利用效率比較高的框架。加上Torch本身的簡潔的用法。比較受歡迎。

上層框架

Keras , TFLearn

8 遷移學(xué)習(xí)

遷移學(xué)習(xí)其實(shí)只是一個(gè)工程經(jīng)驗(yàn)。既然深度學(xué)習(xí)大部分的工作是在訓(xùn)練和優(yōu)化神經(jīng)網(wǎng)絡(luò),那么被大型數(shù)據(jù)集訓(xùn)練過的網(wǎng)絡(luò)參數(shù)就具有良好的泛化誤差。在數(shù)據(jù)集很小的時(shí)候,如果存在著相似的被訓(xùn)練良好的網(wǎng)絡(luò),那么就可以利用已經(jīng)訓(xùn)練過的 特征抽取的參數(shù)。

https://zhuanlan.zhihu.com/p/21470871

http://blog.csdn.net/qq_26898461/article/details/53557612

10 例子演示

最后編輯于
?著作權(quán)歸作者所有,轉(zhuǎn)載或內(nèi)容合作請聯(lián)系作者
【社區(qū)內(nèi)容提示】社區(qū)部分內(nèi)容疑似由AI輔助生成,瀏覽時(shí)請結(jié)合常識(shí)與多方信息審慎甄別。
平臺(tái)聲明:文章內(nèi)容(如有圖片或視頻亦包括在內(nèi))由作者上傳并發(fā)布,文章內(nèi)容僅代表作者本人觀點(diǎn),簡書系信息發(fā)布平臺(tái),僅提供信息存儲(chǔ)服務(wù)。

相關(guān)閱讀更多精彩內(nèi)容

  • 五、Deep Learning的基本思想 假設(shè)我們有一個(gè)系統(tǒng)S,它有n層(S1,…Sn),它的輸入是I,輸出是O,...
    dma_master閱讀 1,904評論 1 2
  • 前記 “寶寶都兩天了,名字到底有了沒?!”躺在病床上的我著實(shí)有些暴躁。 “有了有了有了?!崩瞎慌詰?yīng)付的答到。 “...
    加一yy閱讀 422評論 0 1
  • ??游泳是一種全身性運(yùn)動(dòng),不但有助于減肥,還可以增強(qiáng)我們的心肺功能。人在水中游泳,兩臂劃水同時(shí)兩腿打水或蹬水,全身...
    一顆梧桐樹閱讀 312評論 0 2
  • 1.只有飛速的旋轉(zhuǎn),才可以止住我的淚水,忘記你的模樣。 -----不祥之刃 2.他們都說我是穿著東方盔甲的奇怪人,...
    layjoy閱讀 780評論 3 1

友情鏈接更多精彩內(nèi)容