主要利用了MNIST圖像庫,代碼如下
# _*_ coding:UTF-8 _*_
import numpy as np
import tensorflow as tf
from tensorflow.examples.tutorials.mnist import input_data # 下載并載入MMIST手寫數據庫(55000*28*28)55000張訓練圖像
mnist = input_data.read_data_sets('mnist_data',one_hot=True) # 下載回本地,里面是路徑,one_hot獨熱碼的編碼(encoding)形式
input_x = tf.placeholder(tf.float32,[None,28 * 28]) / 255. # placeholder占位符
output_y = tf.placeholder(tf.int32,[None,10]) # None 表示張量(tensor)的第一個維度,可以是任何長度 輸出:10個數字的標簽
input_x_images = tf.reshape(input_x,[-1,28,28,1]) # 改變形狀之后的輸入
# 從Test(測試)數據集里選取3000個手寫數據的圖片和對應標簽
test_x = mnist.test.images[:3000] # 圖片
test_y = mnist.test.labels[:3000] # 標簽
# 構建卷積神經網絡
# 構建第一層卷積
conv1 = tf.layers.conv2d(
inputs=input_x_images, # 形狀[28,28,1]
filters=32, # 32個過濾器,輸出的深度(depth)是32
kernel_size=[5,5], # 過濾器在二維的大小是(5*5)
strides=1, # 步長是1
padding='same', # same表示輸出的大小不變,因此需要在外圍補零兩圈
activation=tf.nn.relu # 激活函數是Relu
# 形狀[28,28,32]
)
# 第一層池化(亞采樣)
pool1 = tf.layers.max_pooling2d(
inputs=conv1, # 形狀[28,28,32]
pool_size=[2,2], # 過濾器在二維的大小
strides=2 # 步長
# 形狀[14,14,32]
)
# 第二層卷積
conv2 = tf.layers.conv2d(
inputs=pool1, # 形狀[14,14,32]
filters=64, # 64個過濾器,輸出的深度(depth)是64
kernel_size=[5,5], # 過濾器在二維的大小是(5*5)
strides=1, # 步長是1
padding='same', # same表示輸出的大小不變,因此需要在外圍補零兩圈
activation=tf.nn.relu # 激活函數是Relu
# 形狀[14,14,64]
)
# 第二層池化(亞采樣)
pool2 = tf.layers.max_pooling2d(
inputs=conv2, # 形狀[28,28,32]
pool_size=[2,2], # 過濾器在二維的大小
strides=2 # 步長
# 形狀[7,7,64]
)
# 平坦化(flat)
flat = tf.reshape(pool2, [-1, 7 * 7 * 64]) # 形狀[7*7*64,]
# 1024個神經元的全連接層
dense = tf.layers.dense(inputs=flat,units=1024,activation=tf.nn.relu)
# Dropout:丟棄 50% rate=0.5
dropout = tf.layers.dropout(inputs=dense,rate=0.5)
# 10神經元的全連接層,這里不用激活函數來做非線性化
logits = tf.layers.dense(inputs=dropout,units=10) #輸出。形狀[1,1.10]
# 計算誤差(計算 Cross entropy(交叉熵),再用softmax計算百分比概率>)
loss = tf.losses.softmax_cross_entropy(onehot_labels=output_y,logits=logits)
# 用Adam 優(yōu)化器來最小化誤差,學習率 0.001
train_op = tf.train.AdadeltaOptimizer(learning_rate=0.001).minimize(loss)
# 精度,計算預測值和實際標簽的匹配程度
# 返回(accuracy,update_op),會創(chuàng)建兩個局部變量
accuracy = tf.metrics.accuracy(
labels=tf.argmax(output_y, axis=1),
predictions=tf.argmax(logits, axis=1),)[1]
# 創(chuàng)建會話
sess = tf.Session()
# 初始化變量:全局和局部,局部變量是因為在上面創(chuàng)建了兩個局部變量
init = tf.group(tf.global_variables_initializer(),tf.local_variables_initializer())
sess.run(init)
for i in range(20000):
batch = mnist.train.next_batch(50) # 從Train(訓練)數據集里取“>下一個”50個樣本
train_loss,train_op_ = sess.run([loss,train_op],{input_x:batch[0],output_y:batch[1]})
if i % 100 == 0:
test_accuracy = sess.run(accuracy,{input_x:test_x,output_y:test_y})
print(i,train_loss,test_accuracy)
# print(i,"Train loss=%.4f,[Test accuracy=%.2f]")% (i,train_loss,test_accuracy)
# 測試:打印20個預測值和真實值的對
test_output = sess.run(logits,{input_x:test_x[:20]})
inferenced_y = np.argmax(test_output,1)
print(inferenced_y,'Inferenced numbers') # 推測的數字
print(np.argmax(test_y[:20],1),'Real number') # 真實的數字
最后還有一步是保存
#保存模型參數
saver = tf.train.Saver()
saver.save(sess, './model.ckpt')
會保存出來四個文件

image.png
暫時還沒明白怎么調用,會的時候再更新