Chapter 1.0_TensorFlow的一般套路

基本操作

基本的計(jì)算pipeline:

1.數(shù)據(jù)處理:比如圖片減去平均值,正則化等

2.將數(shù)據(jù)分為 train sets,test sets,validation sets

3.設(shè)置超參數(shù):比如learning rate 這些


4.變量與占位符的初始化(Initialize variables and placeholders)

在計(jì)算中tf要知道什么數(shù)據(jù)是可以修改的(比如權(quán)重w,偏置b等用variables),什么是變化的但是不可修改的(比如x,y等),同時(shí)還要注明數(shù)據(jù)類型tf.float32或者其他


5.定義模型(Define the model structure):

在有了數(shù)據(jù)和初始化好變量和網(wǎng)絡(luò)參數(shù)后,就開始定義模型。



6.定義loss函數(shù)(Declare the loss functions)

loss函數(shù)描述和計(jì)算值和實(shí)際值的偏差,用來(lái)計(jì)算優(yōu)化方向

# Define loss and optimizer

cost = tf.reduce_mean(tf.nn.softmax_cross_entropy_with_logits(logits=pred, labels=Y))

7.Initialize and train the model

做好上面的步驟后就可以開始初始化和訓(xùn)練我們的模型


8.模型評(píng)價(jià)(Evaluate the model)

對(duì)于訓(xùn)練好的模型,需要用驗(yàn)證集去測(cè)試實(shí)際的效果

9.超參數(shù)fine tune

最后編輯于
?著作權(quán)歸作者所有,轉(zhuǎn)載或內(nèi)容合作請(qǐng)聯(lián)系作者
【社區(qū)內(nèi)容提示】社區(qū)部分內(nèi)容疑似由AI輔助生成,瀏覽時(shí)請(qǐng)結(jié)合常識(shí)與多方信息審慎甄別。
平臺(tái)聲明:文章內(nèi)容(如有圖片或視頻亦包括在內(nèi))由作者上傳并發(fā)布,文章內(nèi)容僅代表作者本人觀點(diǎn),簡(jiǎn)書系信息發(fā)布平臺(tái),僅提供信息存儲(chǔ)服務(wù)。

相關(guān)閱讀更多精彩內(nèi)容

  • 簡(jiǎn)單線性回歸 import tensorflow as tf import numpy # 創(chuàng)造數(shù)據(jù) x_dat...
    CAICAI0閱讀 3,666評(píng)論 0 49
  • 上一篇搭建了一個(gè)簡(jiǎn)單的cnn網(wǎng)絡(luò)用來(lái)識(shí)別手寫數(shù)字。 基于tensorflow搭建一個(gè)簡(jiǎn)單的CNN模型(code) ...
    想搞點(diǎn)事情了閱讀 6,915評(píng)論 0 6
  • 一.21天的短期計(jì)劃 1.堅(jiān)持每天簽到。心情好就再發(fā)個(gè)帖 2.忍著21天不私信你。感覺日子好漫長(zhǎng) 3.堅(jiān)持每天一萬(wàn)...
    桌子和1106閱讀 203評(píng)論 0 0
  • 文/小葉 一 夜深了 雨并不因此而眠 歡唱給誰(shuí)聽呢? 怎知我是她長(zhǎng)期的忠實(shí)粉絲 又怎知夜與我共飲共醉 西方的靈山 ...
    博土閱讀 328評(píng)論 23 4
  • 考古隊(duì)員歷盡千辛萬(wàn)苦終于找到了深埋在地下廢棄實(shí)驗(yàn)室里的冬眠倉(cāng)。 幸運(yùn)的是,有一個(gè)倉(cāng)體的能源和生命維持系統(tǒng)還在工作,...
    據(jù)一位不輕易吐槽的喔喔吐槽閱讀 720評(píng)論 1 2

友情鏈接更多精彩內(nèi)容