是時(shí)候,該……

總結(jié)一下了

上面是前13個(gè)筆記的一個(gè)示意圖,簡(jiǎn)單了點(diǎn),但是內(nèi)容架構(gòu)應(yīng)該是有的,先容我再道一道,梳理下:
首先整體的第一周的課程是神經(jīng)“網(wǎng)路”,對(duì),通向神經(jīng)網(wǎng)絡(luò)的基礎(chǔ)的網(wǎng)絡(luò),其中講解了內(nèi)容模塊包括:
二分分類
二分類問題簡(jiǎn)單來說就是1和0的問題,也就是著名的cat 和 noncat問題,這個(gè)處理是靠圖片輸入,然后計(jì)算機(jī)整合處理矩陣輸入,使用網(wǎng)絡(luò)初等感知機(jī)進(jìn)行輸出,這是一個(gè)典型的判別網(wǎng)絡(luò)模型
邏輯回歸
邏輯回歸問題,如果說二分類問題是分類問題的話,那么這個(gè)可以簡(jiǎn)單地理解成為回歸問題,對(duì)的,網(wǎng)絡(luò)模型中基本上使用的最多的也就是分類問題(人臉識(shí)別,手寫體識(shí)別,貓識(shí)別)和回歸問題(房?jī)r(jià)預(yù)估),在這里你要了解到的是邏輯回歸使用了最大似然估計(jì),定義邏輯回歸函數(shù)和成本函數(shù)后,利用梯度下降進(jìn)行損失最小化
梯度下降
梯度下降這一部分就是講解了梯度為何下降的,要清楚理解其中的權(quán)重更新,學(xué)習(xí)率,還有前后向的求導(dǎo)方法,可是梯度下降并不僅僅是這個(gè)一個(gè)簡(jiǎn)單的流程就能解決各種各樣復(fù)雜的問題,還有很多前輩們優(yōu)化的方法,比如權(quán)重衰減,學(xué)習(xí)率衰減等,這個(gè)在后面會(huì)講到。
向量化
量化,這一部分其實(shí)是在教我們?nèi)绾卧谟布幕A(chǔ)上更好的加快訓(xùn)練速度和思維空間邏輯思考,它可以讓我們一次訓(xùn)練多樣本,更簡(jiǎn)單和更高效的完成訓(xùn)練目標(biāo)。但是python的numpy這一個(gè)模塊還是有必要去好好看下的,這也算是一個(gè)建議了,希望下去好好努力下。
總結(jié)的稍微簡(jiǎn)單了點(diǎn),框架是有了的,希望在AI的路上有你我相伴,加油!