基于python TensorFlow 實現(xiàn)數字識別

主要利用了MNIST圖像庫,代碼如下

# _*_ coding:UTF-8 _*_

import numpy as np
import tensorflow as tf
from tensorflow.examples.tutorials.mnist import input_data # 下載并載入MMIST手寫數據庫(55000*28*28)55000張訓練圖像

mnist = input_data.read_data_sets('mnist_data',one_hot=True) # 下載回本地,里面是路徑,one_hot獨熱碼的編碼(encoding)形式

input_x = tf.placeholder(tf.float32,[None,28 * 28]) / 255. # placeholder占位符
output_y = tf.placeholder(tf.int32,[None,10])  # None 表示張量(tensor)的第一個維度,可以是任何長度 輸出:10個數字的標簽
input_x_images = tf.reshape(input_x,[-1,28,28,1])  # 改變形狀之后的輸入

# 從Test(測試)數據集里選取3000個手寫數據的圖片和對應標簽
test_x = mnist.test.images[:3000]  # 圖片
test_y = mnist.test.labels[:3000]  # 標簽

# 構建卷積神經網絡
# 構建第一層卷積
conv1 = tf.layers.conv2d(
    inputs=input_x_images, # 形狀[28,28,1]
    filters=32,  # 32個過濾器,輸出的深度(depth)是32
    kernel_size=[5,5], # 過濾器在二維的大小是(5*5)
    strides=1,  # 步長是1
    padding='same', # same表示輸出的大小不變,因此需要在外圍補零兩圈
    activation=tf.nn.relu # 激活函數是Relu
    # 形狀[28,28,32]
)

# 第一層池化(亞采樣)
pool1 = tf.layers.max_pooling2d(
    inputs=conv1,  # 形狀[28,28,32]
    pool_size=[2,2],  # 過濾器在二維的大小
    strides=2 # 步長
    # 形狀[14,14,32]
)


# 第二層卷積
conv2 = tf.layers.conv2d(
    inputs=pool1, # 形狀[14,14,32]
    filters=64,  # 64個過濾器,輸出的深度(depth)是64
    kernel_size=[5,5], # 過濾器在二維的大小是(5*5)
    strides=1,  # 步長是1
    padding='same', # same表示輸出的大小不變,因此需要在外圍補零兩圈
    activation=tf.nn.relu # 激活函數是Relu
    # 形狀[14,14,64]
)

# 第二層池化(亞采樣)
pool2 = tf.layers.max_pooling2d(
    inputs=conv2,  # 形狀[28,28,32]
    pool_size=[2,2],  # 過濾器在二維的大小
    strides=2 # 步長
    # 形狀[7,7,64]
)

# 平坦化(flat)
flat = tf.reshape(pool2, [-1, 7 * 7 * 64])  # 形狀[7*7*64,]

# 1024個神經元的全連接層
dense = tf.layers.dense(inputs=flat,units=1024,activation=tf.nn.relu)

# Dropout:丟棄 50% rate=0.5
dropout = tf.layers.dropout(inputs=dense,rate=0.5)

# 10神經元的全連接層,這里不用激活函數來做非線性化
logits = tf.layers.dense(inputs=dropout,units=10)  #輸出。形狀[1,1.10]

# 計算誤差(計算 Cross entropy(交叉熵),再用softmax計算百分比概率>)
loss = tf.losses.softmax_cross_entropy(onehot_labels=output_y,logits=logits)

# 用Adam 優(yōu)化器來最小化誤差,學習率 0.001
train_op = tf.train.AdadeltaOptimizer(learning_rate=0.001).minimize(loss)

# 精度,計算預測值和實際標簽的匹配程度
# 返回(accuracy,update_op),會創(chuàng)建兩個局部變量
accuracy = tf.metrics.accuracy(
    labels=tf.argmax(output_y, axis=1),
    predictions=tf.argmax(logits, axis=1),)[1]

# 創(chuàng)建會話
sess = tf.Session()

# 初始化變量:全局和局部,局部變量是因為在上面創(chuàng)建了兩個局部變量
init = tf.group(tf.global_variables_initializer(),tf.local_variables_initializer())
sess.run(init)

for i in range(20000):
    batch = mnist.train.next_batch(50)  # 從Train(訓練)數據集里取“>下一個”50個樣本
    train_loss,train_op_ = sess.run([loss,train_op],{input_x:batch[0],output_y:batch[1]})
    if i % 100 == 0:
        test_accuracy = sess.run(accuracy,{input_x:test_x,output_y:test_y})
        print(i,train_loss,test_accuracy)
        # print(i,"Train loss=%.4f,[Test accuracy=%.2f]")% (i,train_loss,test_accuracy)

# 測試:打印20個預測值和真實值的對
test_output = sess.run(logits,{input_x:test_x[:20]})
inferenced_y = np.argmax(test_output,1)
print(inferenced_y,'Inferenced numbers') # 推測的數字
print(np.argmax(test_y[:20],1),'Real number') # 真實的數字

最后還有一步是保存

#保存模型參數

saver = tf.train.Saver()
saver.save(sess, './model.ckpt')

會保存出來四個文件


image.png

暫時還沒明白怎么調用,會的時候再更新

最后編輯于
?著作權歸作者所有,轉載或內容合作請聯(lián)系作者
【社區(qū)內容提示】社區(qū)部分內容疑似由AI輔助生成,瀏覽時請結合常識與多方信息審慎甄別。
平臺聲明:文章內容(如有圖片或視頻亦包括在內)由作者上傳并發(fā)布,文章內容僅代表作者本人觀點,簡書系信息發(fā)布平臺,僅提供信息存儲服務。

相關閱讀更多精彩內容

友情鏈接更多精彩內容