使用 TensorFlow2.0 實現(xiàn)線性回歸

本文是筆者學(xué)習(xí) TensorFlow2.0(下文都寫作 TF2.0) 的一篇筆記,使用的教材是《動手深度學(xué)習(xí)》(TF2.0版)。

之所以可以使用 TensorFlow 來實現(xiàn)線性回歸,是因為我們可以把線性回歸看成是只有一層、一個神經(jīng)元的全連接網(wǎng)絡(luò):

上面這個圖就是線性回歸 y = w_1x_1 + w_2x_2 + b 的神經(jīng)網(wǎng)絡(luò)的表示。

實現(xiàn)線性回歸

要實現(xiàn)線性回歸,我們需要

  1. 定義線性回歸模型
  2. 定義 Loss 函數(shù)
  3. 定義迭代優(yōu)化算法

這些也是機(jī)器學(xué)習(xí)理論中的要點,我們可以借本文來回顧一下。

定義線性回歸模型

要實現(xiàn)一個算法,我們首先需要用矢量表達(dá)式來表示它,即:使用向量、矩陣來描述一個模型。這樣做的好處是:矢量批量計算要比循環(huán)一條條的計算每個樣本來得快得多,線性回歸的矢量表達(dá)式為:
\hat{y} = Xw + b
其中,X 是一個 n\times d 維的矩陣,n 表示 n 條樣本,d 表示特征的維數(shù);w 是模型的參數(shù),它是一個 d\times 1 維的向量;b 是偏差值,它是一個標(biāo)量;\hat{y} 是 n 條樣本的預(yù)測值,它也是 n \times 1 的向量。

該模型用 TF2.0 實現(xiàn)如下:

import tensorflow as tf
import numpy as np
import random

def linear_reg(X, w, b):
  # matmul 是矩陣乘法
  return tf.matmul(X, w) + b

定義 Loss 函數(shù)

一般的,回歸模型的 Loss 函數(shù)為 MSE(Mean Squared Error):
Loss = \frac{1}{2n}(y-\hat{y})^2
上式中,y 是樣本的觀測值(Observed Value),y\hat{y} 都是 n \times 1 的向量,n 表示對 n 個樣本的 Loss 求平均,避免樣本數(shù)量給 Loss 帶來的影響。因為 Loss 是一個標(biāo)量,所以上式還需要調(diào)整如下:
Loss = \frac{1}{2n}(y-\hat{y})^{\top}(y-\hat{y})
Loss 用 TF2.0 實現(xiàn)如下:

def squared_loss(y, y_hat, n):
  y_observed = tf.reshape(y, y_hat.shape)
  return tf.matmul(tf.transpose(y_observed - y_hat), 
                   y_observed - y_hat) / 2 / n

定義迭代優(yōu)化算法

深度學(xué)習(xí)大多采用小批量隨機(jī)梯度下降優(yōu)化算法(minibatch Stochastic Gradient Descent)來迭代模型的參數(shù),該算法能節(jié)省內(nèi)存空間,增加模型的迭代次數(shù)和加快模型的收斂速度。

SGD 算法每次會隨機(jī)的從樣本中選取一部分?jǐn)?shù)據(jù),例如每次取 100 條,然后計算這 100 條數(shù)據(jù)的 Loss,根據(jù) Loss 求梯度,再用梯度來更新當(dāng)前的參數(shù),所以這里包含 3 個步驟:

  1. 隨機(jī)選擇樣本,每次選 n 條
  2. 計算這 n 條樣本的 Loss,并計算梯度,使用梯度更新參數(shù)
  3. 循環(huán) 1 和 2

先來看下隨機(jī)選擇樣本的代碼

def data_iter(features, labels, mini_batch):
  '''
  數(shù)據(jù)迭代函數(shù)
  Args:
  - features: 特征矩陣 nxd 維
  - labels: 樣本,nx1 維
  - mini_batch: 每次抽取的樣本數(shù)
  Example:
  >>> mini_batch = 100
  >>> for X, y in data_iter(features, labels, mini_batch):
  >>>   # do gradient descent
  '''
  features = np.array(features)
  labels = np.array(labels)
  indeces = list(range(len(features)))
  random.shuffle(indeces)
  for i in range(0, len(indeces), mini_batch):
    j = np.array(indeces[i:min(i+mini_batch, len(features))])
    yield features[j], labels[j]

接著,我們再來看下更新模型參數(shù)的代碼:

def sgd(params, lr):
  '''
  計算梯度,并更新模型參數(shù)
  Args:
  - params: 模型參數(shù),本例中為 [w, b]
  - lr: 學(xué)習(xí)率 learning rate
  '''
  for param in params:
    param.assign_sub(lr * t.gradient(l, param))

以上,關(guān)鍵代碼就寫完了,下面我們把它們們串起來:

# 產(chǎn)生模擬數(shù)據(jù)
# 1000 條樣本,2 維特征
num_samples = 1000
num_dim = 2
# 真實的 weight, bias
w_real = [2, -3.4]
b_real = 4.2
# 產(chǎn)生特征,符合正態(tài)分布,標(biāo)準(zhǔn)差為 1
features = tf.random.normal((num_samples, num_dim), stddev=1)
labels = features[:,0]*w_real[0] + features[:,1]*w_real[1] + b_real 
# 給 labels 加上噪聲數(shù)據(jù)
labels += tf.random.normal(labels.shape, stddev=0.01)
# 學(xué)習(xí)率,迭代次數(shù)
lr = 0.03
num_epochs = 3
# 初始化模型參數(shù)
w = tf.Variable(tf.random.normal([num_dim, 1], stddev=0.01))
b = tf.Variable(tf.zeros(1,))
mini_batch = 10
# 開始訓(xùn)練
for i in range(num_epochs):
    for X, y in data_iter(features, labels, mini_batch):
            # 在內(nèi)存中記錄梯度過程
        with tf.GradientTape(persistent=True) as t:
            t.watch([w, b])
            # 計算本次小批量的 loss
            l = squared_loss(y, linear_reg(X, w, b), mini_batch)
        # 計算梯度,更新參數(shù)
        sgd([w, b], lr)
    # 計算本次迭代的總誤差
    train_loss = squared_loss(labels, linear_reg(features, w, b), len(features))
    print('epoch %d, loss %f' % (i + 1, tf.reduce_mean(train_loss)))

簡單實現(xiàn)

上述代碼是根據(jù)線性回歸的原理一步步的實現(xiàn)的,步驟十分清晰,但比較繁瑣,實際上,TF 提供了豐富的算法庫供你調(diào)用,大大的提升了你的工作效率。下面我們就用 TF 庫中提供的方法來替換上述代碼。

我們先用 keras 來定義一個只有 1 層的全連接網(wǎng)絡(luò)結(jié)構(gòu),這里參數(shù)都不需要你指定了:

from tensorflow import keras
from tensorflow.keras import layers
from tensorflow import initializers as init

model = keras.Sequential()
model.add(layers.Dense(1, kernel_initializer=init.RandomNormal(stddev=0.01)))

接下來設(shè)置 Loss 函數(shù)為 MSE:

from tensorflow import losses

loss = losses.MeanSquaredError()

設(shè)置優(yōu)化策略為 SGD:

from tensorflow.keras import optimizers

trainer = optimizers.SGD(learning_rate=0.03)

小批量隨機(jī)獲取數(shù)據(jù)集的代碼如下:

from tensorflow import data as tfdata

batch_size = 10
dataset = tfdata.Dataset.from_tensor_slices((features, labels))
dataset = dataset.shuffle(len(features)).batch(batch_size)

可見,構(gòu)建一個模型就是設(shè)置一些配置項,不需要寫任何邏輯,把上面代碼合起來,如下:

from tensorflow import data as tfdata
from tensorflow import keras
from tensorflow.keras import layers
from tensorflow import initializers as init
from tensorflow import losses
from tensorflow.keras import optimizers

# 設(shè)置網(wǎng)絡(luò)結(jié)構(gòu):1 層全連接,初始化模型參數(shù)
model = keras.Sequential()
model.add(layers.Dense(1, kernel_initializer=init.RandomNormal(stddev=0.01)))
# loss 函數(shù):MSE
loss = losses.MeanSquaredError()
# 優(yōu)化策略:隨機(jī)梯度下降
trainer = optimizers.SGD(learning_rate=0.03)
# 設(shè)置數(shù)據(jù)集,和小批量的樣本數(shù)
batch_size = 10
dataset = tfdata.Dataset.from_tensor_slices((features, labels))
dataset = dataset.shuffle(len(features)).batch(batch_size)

num_epochs = 3
for epoch in range(1, num_epochs+1):
    # 取小批量進(jìn)行計算
    for (batch, (X, y)) in enumerate(dataset):
        with tf.GradientTape() as tape:
            # 計算 loss
            l = loss(model(X, training=True), y)
        # 計算梯度并更新參數(shù)
        grads = tape.gradient(l, model.trainable_variables)
        trainer.apply_gradients(zip(grads, model.trainable_variables))
    
    # 本次迭代后的總 loss
    l = loss(model(features), labels)
    print('epoch %d, loss: %f' % (epoch, l.numpy().mean()))
# 輸出模型參數(shù)
print(model.get_weights())

上面代碼直接拷貝便可通過運行(依賴庫還需要你自行安裝下),初學(xué)的同學(xué)可以動手試試。

小結(jié)

本文通過 TF2.0 來實現(xiàn)了一個簡單的線性回歸模型,具體包括

  1. 按照定義模型、定義損失函數(shù),以及定義迭代算法這幾個基本的步驟來實現(xiàn)一個廣義的神經(jīng)網(wǎng)絡(luò),麻雀雖小,但五臟俱全
  2. 使用豐富的 TF2.0 組件來實現(xiàn)一個更精簡的版本,旨在了解 TF2.0 的使用。

參考:

最后編輯于
?著作權(quán)歸作者所有,轉(zhuǎn)載或內(nèi)容合作請聯(lián)系作者
【社區(qū)內(nèi)容提示】社區(qū)部分內(nèi)容疑似由AI輔助生成,瀏覽時請結(jié)合常識與多方信息審慎甄別。
平臺聲明:文章內(nèi)容(如有圖片或視頻亦包括在內(nèi))由作者上傳并發(fā)布,文章內(nèi)容僅代表作者本人觀點,簡書系信息發(fā)布平臺,僅提供信息存儲服務(wù)。

相關(guān)閱讀更多精彩內(nèi)容

友情鏈接更多精彩內(nèi)容