2018-11-7 deep learning舉例

以手寫數(shù)字識(shí)別為例:

輸入是256維的像素,輸出是對(duì)應(yīng)0,1,2,3,4,5,6,7,8,9的概率

第一步:選擇模型:

選擇一個(gè)合適的神經(jīng)網(wǎng)絡(luò)模型,全連接模型,CNN卷積神經(jīng)網(wǎng)絡(luò)模型等等
神經(jīng)網(wǎng)絡(luò)的層數(shù)與個(gè)數(shù)是難點(diǎn)!經(jīng)驗(yàn)+直覺


loss function是交叉熵的方法
找到neural network的parameters 使得total loss最小?

step3:找到最優(yōu)解

利用gradient descent尋找最優(yōu)模型,但是因?yàn)樯疃葘W(xué)習(xí)的函數(shù)太復(fù)雜,要直接計(jì)算微分的話,計(jì)算量實(shí)在太大了,所以一般會(huì)用一個(gè)叫做?反向傳播(Backpropagation)?的算法來做,這個(gè)算法會(huì)在之后詳細(xì)介紹。

雖然我們是用 Backpropagation 來幫我們算微分,但是其實(shí)就連這個(gè)我們都不會(huì)自己去算,基本都是用一些工具來幫我們,比如 TensorFlow。到此結(jié)束了嗎?沒有的,人這么懶的生物,覺得 TensorFlow 也太復(fù)雜了,所以又寫了一堆 API 去直接調(diào)用 TensorFlow ,這就是之后會(huì)講到的 Keras,果然懶才能推動(dòng)人類不斷進(jìn)步。

---------------------

作者:MemoryD

來源:CSDN

原文:https://blog.csdn.net/MemoryD/article/details/80307520

版權(quán)聲明:本文為博主原創(chuàng)文章,轉(zhuǎn)載請(qǐng)附上博文鏈接!

最后編輯于
?著作權(quán)歸作者所有,轉(zhuǎn)載或內(nèi)容合作請(qǐng)聯(lián)系作者
【社區(qū)內(nèi)容提示】社區(qū)部分內(nèi)容疑似由AI輔助生成,瀏覽時(shí)請(qǐng)結(jié)合常識(shí)與多方信息審慎甄別。
平臺(tái)聲明:文章內(nèi)容(如有圖片或視頻亦包括在內(nèi))由作者上傳并發(fā)布,文章內(nèi)容僅代表作者本人觀點(diǎn),簡(jiǎn)書系信息發(fā)布平臺(tái),僅提供信息存儲(chǔ)服務(wù)。

相關(guān)閱讀更多精彩內(nèi)容

友情鏈接更多精彩內(nèi)容