TensorFlow學(xué)習(xí)4:深度學(xué)習(xí)的知識點(diǎn)

神經(jīng)網(wǎng)絡(luò)基礎(chǔ)

1,神經(jīng)元(Neuron)
2,權(quán)重(Weights)
3,偏差(Bias)
4,激活函數(shù)(Activation Function)
常用激活函數(shù):Sigmoid,ReLU(整流線性單位),Softmax
5,神經(jīng)網(wǎng)絡(luò)
6,輸入、輸出、隱藏層
7,MLP(多層感知器)
8,正向傳播(Forword Propagation)
9,成本函數(shù)(Cost Function)
10,梯度下降(Gradient Descent)
11,學(xué)習(xí)率(Learning Rate)
12,反向傳播(Back Propagation)
13,批次(Batches)
14,周期(Epochs)
15,丟棄(Dropout)
16,批量歸一化(Batch Normalization)

卷積神經(jīng)網(wǎng)絡(luò)

17,濾波器(Filters)
18,卷積神經(jīng)網(wǎng)絡(luò)(CNN)
19,池化(Pooling)
20,填充(Padding)
21,數(shù)據(jù)增強(qiáng)(Data Augmentation)

循環(huán)神經(jīng)網(wǎng)絡(luò)

22,循環(huán)神經(jīng)元(Recurrent Neuron)
23,循環(huán)神經(jīng)網(wǎng)絡(luò)(RNN)
24,消失梯度問題(Vanishing Gradient Problem)
25,激增梯度問題(Exploding Gradient Problem)

參考: 深度學(xué)習(xí)入門必須理解這25個(gè)概念

最后編輯于
?著作權(quán)歸作者所有,轉(zhuǎn)載或內(nèi)容合作請聯(lián)系作者
【社區(qū)內(nèi)容提示】社區(qū)部分內(nèi)容疑似由AI輔助生成,瀏覽時(shí)請結(jié)合常識與多方信息審慎甄別。
平臺(tái)聲明:文章內(nèi)容(如有圖片或視頻亦包括在內(nèi))由作者上傳并發(fā)布,文章內(nèi)容僅代表作者本人觀點(diǎn),簡書系信息發(fā)布平臺(tái),僅提供信息存儲(chǔ)服務(wù)。

相關(guān)閱讀更多精彩內(nèi)容

友情鏈接更多精彩內(nèi)容