Tensorflow: 1.2.0? ?Keras: 2.1.6?
最近學(xué)習(xí)keras, 下載了數(shù)據(jù)集和一些已經(jīng)訓(xùn)練好的模型,比如VGG16,VGG19?
因為查閱keras 文檔,發(fā)現(xiàn)很多文章參數(shù)都沒有更新,所以自己根據(jù)安裝的版本記下以便于自己記憶。
Dense() 普通的全連接層
參數(shù):
output_dim: 輸出空間維度
init: 初始化權(quán)重函數(shù)名稱
activation: 激活函數(shù),'relu','sigmoid'等
weights: 初始化權(quán)重
W_regularizer: 權(quán)重上的正則化
b_regularizer: 偏置項的正則化
activity_regularizer: 施加在輸出上的正則化
W_constraint: 權(quán)重上約束項
b_constraint: 偏置上的約束項
bias: 是否添加偏置項
input_dim :輸入的維度(如果作為模型的第一層,一定要輸入,或者用input_shape)
卷積層:
Convolution1D:?
一維卷積層
nb_filter: 卷積核的個數(shù)
filter_length: 每個卷積核的長度
init: 權(quán)重初始化函數(shù)名稱
weights: 權(quán)重初始化
border_mode: 'valid', 'same' or 'full' 如果是‘valid ’ 進(jìn)行有效的卷積,對邊界數(shù)據(jù)不處理,‘same'表示保留邊界處的卷積結(jié)果’
subsample_length: 子樣的長度
W_regularizer: 權(quán)重上的正則化
b_regularizer:? 偏置項上的正則化
activity_regularizer: 輸出上的正則化
W_constraint: 權(quán)重上的約束項
b_constraint: 偏置上的約束項
bias: 偏置項
input_dim: 輸入的維度
input_length:?
Convolution2D
nb_filter: 卷積核的個數(shù)
nb_row: 卷積核的行數(shù)
nb_col: 卷積核的列數(shù)
init: 權(quán)重初始化函數(shù)名稱
activation: 激活函數(shù)
weights: 權(quán)重初始化
border_mode: 'valid', 'same' or 'full'
'valid'代表只進(jìn)行有效的卷積,對邊界數(shù)據(jù)不處理
'same'代表保留邊界處的卷積結(jié)果
W_regularizer? 同Convolution1D
?b_regularizer: 同Convolution1D
activity_regularizer: 同Convolution1D
W_constraint:? ?同Convolution1D
b_constraint:? 同Convolution1D
dim_ordering: 如果是'th', 則是基于thenao, 則為(channels, row,cols)的張量
如果是'tf', 基于tensorflow, 則為(rows, cols, channels)的張量
bias: 是否有偏置項
Embedding :嵌入層
Embedding層只能作為模型的第一層
input_dim:?大或等于0的整數(shù),字典長度,即輸入數(shù)據(jù)最大下標(biāo)+1
output_dim:?大于0的整數(shù),代表全連接嵌入的維度
init: 初始化函數(shù)名稱
weights: .權(quán)重的初始化
W_regularizer: 權(quán)重上的正則化
W_constraint: 權(quán)重上的約束項
mask_zero: 布爾值,確定是否將輸入中的‘0’看作是應(yīng)該被忽略的‘填充’(padding)值,該參數(shù)在使用遞歸層處理變長輸入時有用。設(shè)置為True的話,模型中后續(xù)的層必須都支持masking,否則會拋出異常。如果該值為True,則下標(biāo)0在字典中不可用,input_dim應(yīng)設(shè)置為|vocabulary| + 1
input_length:?當(dāng)輸入序列的長度固定時,該值為其長度。如果要在該層后接Flatten層,然后接Dense層,則必須指定該參數(shù),否則Dense層的輸出維度無法自動推斷。
dropout: 0-1之間的浮點數(shù),控制需要斷開的神經(jīng)元的比例
循環(huán)層
LSTM , GRU? , simpleRNN 參數(shù)類似都如下
simpleRNN: keras.layers.simpleRNN()
output_dim: 輸出的維度
init: 權(quán)重初始化函數(shù)
inner_init: 內(nèi)部單元的初始化函數(shù)
activation: 激活函數(shù)
W_regularizer:權(quán)重上的正則項
U_regularizer: 循環(huán)核上的正則項
b_regularizer: 偏置項上的正則項
dropout_W: 0-1之間的浮點數(shù),控制輸入線性變換的神經(jīng)元斷開比例
?dropout_U: 0-1之間的浮點數(shù),控制循環(huán)狀態(tài)的線性變換的神經(jīng)元斷開比例
激活函數(shù)一般有:‘relu','sigmoid','tanh','linear',softmax’