以手寫數(shù)字識(shí)別為例:

輸入是256維的像素,輸出是對(duì)應(yīng)0,1,2,3,4,5,6,7,8,9的概率
第一步:選擇模型:

選擇一個(gè)合適的神經(jīng)網(wǎng)絡(luò)模型,全連接模型,CNN卷積神經(jīng)網(wǎng)絡(luò)模型等等

神經(jīng)網(wǎng)絡(luò)的層數(shù)與個(gè)數(shù)是難點(diǎn)!經(jīng)驗(yàn)+直覺

loss function是交叉熵的方法

找到neural network的parameters 使得total loss最小?
step3:找到最優(yōu)解
利用gradient descent尋找最優(yōu)模型,但是因?yàn)樯疃葘W(xué)習(xí)的函數(shù)太復(fù)雜,要直接計(jì)算微分的話,計(jì)算量實(shí)在太大了,所以一般會(huì)用一個(gè)叫做?反向傳播(Backpropagation)?的算法來做,這個(gè)算法會(huì)在之后詳細(xì)介紹。
雖然我們是用 Backpropagation 來幫我們算微分,但是其實(shí)就連這個(gè)我們都不會(huì)自己去算,基本都是用一些工具來幫我們,比如 TensorFlow。到此結(jié)束了嗎?沒有的,人這么懶的生物,覺得 TensorFlow 也太復(fù)雜了,所以又寫了一堆 API 去直接調(diào)用 TensorFlow ,這就是之后會(huì)講到的 Keras,果然懶才能推動(dòng)人類不斷進(jìn)步。
---------------------
作者:MemoryD
來源:CSDN
原文:https://blog.csdn.net/MemoryD/article/details/80307520
版權(quán)聲明:本文為博主原創(chuàng)文章,轉(zhuǎn)載請(qǐng)附上博文鏈接!
