有空再添加json數(shù)據(jù)高亮效果,先上一個1.0版本:
問題 能正常運行的代碼誤報錯誤。 其中rcParams及random等等模塊均報錯"rcParams" is not a known membe...
問題: module 'scipy.ndimage' has no attribute 'imread'module 'scipy.misc' ...
原因: 目前在學習階段,看到網(wǎng)上的資料使用的是tf1的代碼,我使用的是tf2的,所以需要直接將tf1轉(zhuǎn)換為tf2代碼以適應tf2的開發(fā)方式 遇到...
吳恩達老師的Adam算法學習筆記,記錄一下理解過程 優(yōu)化 Mini-Batch 梯度下降 將訓練集排序打亂,然后分割成固定大小的子集n個(最后一...
簡單神經(jīng)網(wǎng)絡 整理吳恩達老師的神經(jīng)網(wǎng)絡的前向和反向傳播 定義 處理2分類問題 神經(jīng)網(wǎng)絡有1個輸入層(3個特征),1個隱層(4個神經(jīng)元),1個輸出...
學習矩陣微積分,同時加強記憶同時方便查閱,故寫本文章。詳細內(nèi)容參考:矩陣微積分-維基百科[https://zh.wikipedia.org/wi...
定義: 信息量公式:(一個事件發(fā)生時,所包含的信息量,發(fā)生的概率越低,包含的信息量就越高,比如明天的太陽打東邊升起,就是一句幾乎不包含信息的話)...
加法 線性代數(shù)方程 sigmoid函數(shù) 二分類代價函數(shù) softmax函數(shù)(歸一化指數(shù)函數(shù)) 貝葉斯規(guī)則 推導得 tanh(z)函數(shù)