吳恩達(dá)深度學(xué)習(xí)筆記(1-14)總結(jié)-神經(jīng)網(wǎng)絡(luò)基礎(chǔ)

是時(shí)候,該……


總結(jié)一下了

上面是前13個(gè)筆記的一個(gè)示意圖,簡(jiǎn)單了點(diǎn),但是內(nèi)容架構(gòu)應(yīng)該是有的,先容我再道一道,梳理下:

首先整體的第一周的課程是神經(jīng)“網(wǎng)路”,對(duì),通向神經(jīng)網(wǎng)絡(luò)的基礎(chǔ)的網(wǎng)絡(luò),其中講解了內(nèi)容模塊包括:

二分分類

二分類問題簡(jiǎn)單來說就是1和0的問題,也就是著名的cat 和 noncat問題,這個(gè)處理是靠圖片輸入,然后計(jì)算機(jī)整合處理矩陣輸入,使用網(wǎng)絡(luò)初等感知機(jī)進(jìn)行輸出,這是一個(gè)典型的判別網(wǎng)絡(luò)模型

邏輯回歸

邏輯回歸問題,如果說二分類問題是分類問題的話,那么這個(gè)可以簡(jiǎn)單地理解成為回歸問題,對(duì)的,網(wǎng)絡(luò)模型中基本上使用的最多的也就是分類問題(人臉識(shí)別,手寫體識(shí)別,貓識(shí)別)和回歸問題(房?jī)r(jià)預(yù)估),在這里你要了解到的是邏輯回歸使用了最大似然估計(jì),定義邏輯回歸函數(shù)和成本函數(shù)后,利用梯度下降進(jìn)行損失最小化

梯度下降

梯度下降這一部分就是講解了梯度為何下降的,要清楚理解其中的權(quán)重更新,學(xué)習(xí)率,還有前后向的求導(dǎo)方法,可是梯度下降并不僅僅是這個(gè)一個(gè)簡(jiǎn)單的流程就能解決各種各樣復(fù)雜的問題,還有很多前輩們優(yōu)化的方法,比如權(quán)重衰減,學(xué)習(xí)率衰減等,這個(gè)在后面會(huì)講到。

向量化

量化,這一部分其實(shí)是在教我們?nèi)绾卧谟布幕A(chǔ)上更好的加快訓(xùn)練速度和思維空間邏輯思考,它可以讓我們一次訓(xùn)練多樣本,更簡(jiǎn)單和更高效的完成訓(xùn)練目標(biāo)。但是python的numpy這一個(gè)模塊還是有必要去好好看下的,這也算是一個(gè)建議了,希望下去好好努力下。

總結(jié)的稍微簡(jiǎn)單了點(diǎn),框架是有了的,希望在AI的路上有你我相伴,加油!

?著作權(quán)歸作者所有,轉(zhuǎn)載或內(nèi)容合作請(qǐng)聯(lián)系作者
【社區(qū)內(nèi)容提示】社區(qū)部分內(nèi)容疑似由AI輔助生成,瀏覽時(shí)請(qǐng)結(jié)合常識(shí)與多方信息審慎甄別。
平臺(tái)聲明:文章內(nèi)容(如有圖片或視頻亦包括在內(nèi))由作者上傳并發(fā)布,文章內(nèi)容僅代表作者本人觀點(diǎn),簡(jiǎn)書系信息發(fā)布平臺(tái),僅提供信息存儲(chǔ)服務(wù)。

相關(guān)閱讀更多精彩內(nèi)容

友情鏈接更多精彩內(nèi)容