摘要: 近十年來,單原子催化劑以其優(yōu)異的原子利用率和獨特的物理化學性質(zhì)在催化領域引起了廣泛的關注。對于基于半導體的電氣體傳感器來說,其核心是目標氣體分子在敏感材料上的催化過程...
摘要: 近十年來,單原子催化劑以其優(yōu)異的原子利用率和獨特的物理化學性質(zhì)在催化領域引起了廣泛的關注。對于基于半導體的電氣體傳感器來說,其核心是目標氣體分子在敏感材料上的催化過程...
LeNet-5解析 AlexNet 首次使用Relu函數(shù),droupout+BN 卷積網(wǎng)絡結(jié)構的優(yōu)化 減少計算量,對于Alex的優(yōu)化 Inception結(jié)構 1*1卷積 In...
圖像數(shù)據(jù)和邊緣檢測 上圖錯字:達到瓶頸了 感受野 邊緣檢測 卷積神經(jīng)網(wǎng)絡(CNN)原理 卷積層 H:長,W:寬,F(xiàn):卷積核大小,P:零填充,S:步長,K:filter卷積核數(shù)...
神經(jīng)網(wǎng)絡調(diào)優(yōu) 調(diào)參技巧 運行: 批標準化(BN) 批標準化公式 為什么批標準化能使優(yōu)化過程變簡單 internal covraiate shift:內(nèi)部分布變換
主網(wǎng)絡搭建流程 準確率可以這么理解: 增加tensorflow的后臺顯示(可以在網(wǎng)頁看到變量的變化p39) 訓練模型保存、模型存在加載模型進行預測 創(chuàng)建saver: 調(diào)整學習...
序列模型 定義: 類型:語音識別、情感分類、機器翻譯 為什么序列模型使用CNN效果不好: 循環(huán)神經(jīng)網(wǎng)絡 定義: 類型: 基礎循環(huán)網(wǎng)絡 詞的表示 為了讓網(wǎng)絡理解我們的輸入,需要...
四層網(wǎng)絡的前向傳播和反向傳播 前向傳播: 以上公式是由單個樣本來進行表示,每層經(jīng)過線性計算和激活函數(shù)兩步計算。 反向傳播: 參數(shù)和超參數(shù) 參數(shù)初始化 深度學習進階 softm...
單個樣本的向量化表示 隱藏層:4個神經(jīng)元,輸出層:一個神經(jīng)元 激活函數(shù)的選擇 可選的函數(shù)有: 修改激活函數(shù)前的前向傳播和反向傳播
機器學習和深度學習的區(qū)別 深度學習應用場景 深度學習代表算法-神經(jīng)網(wǎng)絡 邏輯回歸 邏輯回歸的損失函數(shù) 目標值為1也就是y=1,目標值為0也就是y=0 梯度下降算法 導數(shù) 邏輯...
包括結(jié)構體、共同體、枚舉類型 自定義數(shù)據(jù)類型,顧名思義,就是用戶自己建立的數(shù)據(jù)類型。 結(jié)構體(struct)(本節(jié)重點) 結(jié)構體的基本語法: 例: 整體賦值就是第一個賦的值對...
預處理定義:是編譯之前做的事情 常用的預定義的符號 這個下劃線前后分別都有兩個! 宏定義 宏定義的本質(zhì)是替換!一改全改!無參宏定義: 上圖中,3.1415926的值就代表π,...