在每個training/epoch/batch結(jié)束時,如果我們想執(zhí)行某些任務(wù),例如模型緩存、輸出日志、計算當(dāng)前的auc等等,Keras中的callback就派上用場了。
Example 記錄每個batch的損失函數(shù)值
import keras
# 定義callback類
class MyCallback(keras.callbacks.Callback):
def on_train_begin(self, logs={}):
self.losses = []
return
def on_batch_end(self, batch, logs={}): # batch 為index, logs為當(dāng)前batch的日志acc, loss...
self.losses.append(logs.get('loss'))
return
# 定義模型model
...
...
# 調(diào)用callback
cb = MyCallback()
# 訓(xùn)練模型
model.fit(x_train, y_train, batch_size=32, epochs=10, callbacks=[cb])
# 查看callback內(nèi)容
cb.losses
如上述例子,我們可以繼承keras.callbacks.Callback來定義自己的callback,只需重寫其中的6個方法即可
on_train_beginon_train_endon_epoch_beginon_epoch_endon_batch_beginon_batch_end
可在這6個方法中定義自己想要的屬性,通過self.model可以訪問模型本身,self.params可以訪問訓(xùn)練參數(shù)。
可能有用的屬性
-
self.validation_datavalidate數(shù)據(jù)集 -
self.validation_data[0]為X -
self.validation_data[1]為y