FLOPs如何計算

參考:

1.FLOPs的定義

    要注意區(qū)分FLOPs和FLOPS
  • FLOPs:s小寫,是floating point operations的縮寫(s表復數(shù)),指浮點運算數(shù),即計算量,可用來衡量模型復雜度。
  • FLOPS:全大寫,是floating point operations per second的縮寫,意指每秒浮點運算次數(shù),理解為計算速度,用來衡量硬件性能。

2.簡單的計算方式

以下均不考慮activation function。

2.1.卷積層

(2\times C_{i}\times k^{2}-1)\times H \times W \times C_{o}
Ci=input channel, k=kernel size, HW=output feature map size, Co=output channel.
2是因為一個MAC算2個operations。不考慮bias時有-1,有bias時沒有-1。
上面針對一個input feature map,沒考慮batch size。

2.2.全聯(lián)接層

(2\times I -1)\times O
I=input neuron numbers, O=output neuron numbers,2是因為一個MAC算2個operations。不考慮bias時有-1,有bias時沒有-1。

2.3.反卷積
最后編輯于
?著作權歸作者所有,轉載或內容合作請聯(lián)系作者
【社區(qū)內容提示】社區(qū)部分內容疑似由AI輔助生成,瀏覽時請結合常識與多方信息審慎甄別。
平臺聲明:文章內容(如有圖片或視頻亦包括在內)由作者上傳并發(fā)布,文章內容僅代表作者本人觀點,簡書系信息發(fā)布平臺,僅提供信息存儲服務。

相關閱讀更多精彩內容

友情鏈接更多精彩內容