keras 模型參數(shù)

Tensorflow: 1.2.0? ?Keras: 2.1.6?

最近學(xué)習(xí)keras, 下載了數(shù)據(jù)集和一些已經(jīng)訓(xùn)練好的模型,比如VGG16,VGG19?

因為查閱keras 文檔,發(fā)現(xiàn)很多文章參數(shù)都沒有更新,所以自己根據(jù)安裝的版本記下以便于自己記憶。

Dense() 普通的全連接層

參數(shù):

output_dim: 輸出空間維度

init: 初始化權(quán)重函數(shù)名稱

activation: 激活函數(shù),'relu','sigmoid'等

weights: 初始化權(quán)重

W_regularizer: 權(quán)重上的正則化

b_regularizer: 偏置項的正則化

activity_regularizer: 施加在輸出上的正則化

W_constraint: 權(quán)重上約束項

b_constraint: 偏置上的約束項

bias: 是否添加偏置項

input_dim :輸入的維度(如果作為模型的第一層,一定要輸入,或者用input_shape)

卷積層:

Convolution1D:?

一維卷積層

nb_filter: 卷積核的個數(shù)

filter_length: 每個卷積核的長度

init: 權(quán)重初始化函數(shù)名稱

weights: 權(quán)重初始化

border_mode: 'valid', 'same' or 'full' 如果是‘valid ’ 進(jìn)行有效的卷積,對邊界數(shù)據(jù)不處理,‘same'表示保留邊界處的卷積結(jié)果’

subsample_length: 子樣的長度

W_regularizer: 權(quán)重上的正則化

b_regularizer:? 偏置項上的正則化

activity_regularizer: 輸出上的正則化

W_constraint: 權(quán)重上的約束項

b_constraint: 偏置上的約束項

bias: 偏置項

input_dim: 輸入的維度

input_length:?

Convolution2D

nb_filter: 卷積核的個數(shù)

nb_row: 卷積核的行數(shù)

nb_col: 卷積核的列數(shù)

init: 權(quán)重初始化函數(shù)名稱

activation: 激活函數(shù)

weights: 權(quán)重初始化

border_mode: 'valid', 'same' or 'full'

'valid'代表只進(jìn)行有效的卷積,對邊界數(shù)據(jù)不處理

'same'代表保留邊界處的卷積結(jié)果

W_regularizer? 同Convolution1D

?b_regularizer: 同Convolution1D

activity_regularizer: 同Convolution1D

W_constraint:? ?同Convolution1D

b_constraint:? 同Convolution1D

dim_ordering: 如果是'th', 則是基于thenao, 則為(channels, row,cols)的張量

如果是'tf', 基于tensorflow, 則為(rows, cols, channels)的張量

bias: 是否有偏置項

Embedding :嵌入層

Embedding層只能作為模型的第一層

input_dim:?大或等于0的整數(shù),字典長度,即輸入數(shù)據(jù)最大下標(biāo)+1

output_dim:?大于0的整數(shù),代表全連接嵌入的維度

init: 初始化函數(shù)名稱

weights: .權(quán)重的初始化

W_regularizer: 權(quán)重上的正則化

W_constraint: 權(quán)重上的約束項

mask_zero: 布爾值,確定是否將輸入中的‘0’看作是應(yīng)該被忽略的‘填充’(padding)值,該參數(shù)在使用遞歸層處理變長輸入時有用。設(shè)置為True的話,模型中后續(xù)的層必須都支持masking,否則會拋出異常。如果該值為True,則下標(biāo)0在字典中不可用,input_dim應(yīng)設(shè)置為|vocabulary| + 1

input_length:?當(dāng)輸入序列的長度固定時,該值為其長度。如果要在該層后接Flatten層,然后接Dense層,則必須指定該參數(shù),否則Dense層的輸出維度無法自動推斷。

dropout: 0-1之間的浮點數(shù),控制需要斷開的神經(jīng)元的比例

循環(huán)層

LSTM , GRU? , simpleRNN 參數(shù)類似都如下

simpleRNN: keras.layers.simpleRNN()

output_dim: 輸出的維度

init: 權(quán)重初始化函數(shù)

inner_init: 內(nèi)部單元的初始化函數(shù)

activation: 激活函數(shù)

W_regularizer:權(quán)重上的正則項

U_regularizer: 循環(huán)核上的正則項

b_regularizer: 偏置項上的正則項

dropout_W: 0-1之間的浮點數(shù),控制輸入線性變換的神經(jīng)元斷開比例

?dropout_U: 0-1之間的浮點數(shù),控制循環(huán)狀態(tài)的線性變換的神經(jīng)元斷開比例

激活函數(shù)一般有:‘relu','sigmoid','tanh','linear',softmax’

?著作權(quán)歸作者所有,轉(zhuǎn)載或內(nèi)容合作請聯(lián)系作者
【社區(qū)內(nèi)容提示】社區(qū)部分內(nèi)容疑似由AI輔助生成,瀏覽時請結(jié)合常識與多方信息審慎甄別。
平臺聲明:文章內(nèi)容(如有圖片或視頻亦包括在內(nèi))由作者上傳并發(fā)布,文章內(nèi)容僅代表作者本人觀點,簡書系信息發(fā)布平臺,僅提供信息存儲服務(wù)。

相關(guān)閱讀更多精彩內(nèi)容

  • 從這篇開始介紹Keras的Layers,就是構(gòu)成網(wǎng)絡(luò)的每一層。Keras實現(xiàn)了很多層,包括核心層、卷基層、RNN網(wǎng)...
    readilen閱讀 2,170評論 1 3
  • 上一篇介紹了基礎(chǔ)核心層,就是用來構(gòu)建普通網(wǎng)絡(luò)的基礎(chǔ)部件。這一篇主要介紹的是卷積層,主要用于構(gòu)建卷積神經(jīng)網(wǎng)絡(luò)等需要用...
    readilen閱讀 2,401評論 0 0
  • 想從Tensorflow循環(huán)生成對抗網(wǎng)絡(luò)開始。但是發(fā)現(xiàn)從最難的內(nèi)容入手還是?太復(fù)雜了所以搜索了一下他的始祖也就是深...
    Feather輕飛閱讀 5,182評論 1 4
  • 公司每年的招投標(biāo),都要導(dǎo)入一些新的供應(yīng)商。新供應(yīng)商導(dǎo)入前要經(jīng)過品質(zhì)部門嚴(yán)格的審核。慢慢地看的工廠多了,自己會累積一...
    風(fēng)之吻Sam閱讀 2,366評論 0 3
  • 女兒膽小怕事。 經(jīng)常在外面玩,哭著回家,誰誰又不和她玩了?;蛘呤钦l說了她,她覺得委屈,回來了。 她生病,帶她去醫(yī)院...
    愛存心間閱讀 121評論 0 0

友情鏈接更多精彩內(nèi)容