模型壓縮(一):剪枝

李宏毅 network compression https://www.youtube.com/watch?v=dPp8rCAnU_A

因為現(xiàn)在訓(xùn)練出來的模型過多參數(shù)的,所以可以剪枝且準(zhǔn)確率變化不大。

首先先訓(xùn)練好一個大模型,再看權(quán)重/神經(jīng)元接近于0(計算l1或l2)就是不重要的權(quán)重/神經(jīng)元,移除它. 再重新訓(xùn)練,finetune. 多次移除少量,更容易把準(zhǔn)確率訓(xùn)練回來。



權(quán)值剪枝不好處理,剪枝之后網(wǎng)絡(luò)不規(guī)則,不再是全連接,gpu也不好加速不規(guī)則的形狀,不好做矩陣運算。如果只把需要剪枝的權(quán)值設(shè)為0,那參數(shù)量沒改變,不能加速。



神經(jīng)元剪枝比較好處理,比較好加速。

最后編輯于
?著作權(quán)歸作者所有,轉(zhuǎn)載或內(nèi)容合作請聯(lián)系作者
【社區(qū)內(nèi)容提示】社區(qū)部分內(nèi)容疑似由AI輔助生成,瀏覽時請結(jié)合常識與多方信息審慎甄別。
平臺聲明:文章內(nèi)容(如有圖片或視頻亦包括在內(nèi))由作者上傳并發(fā)布,文章內(nèi)容僅代表作者本人觀點,簡書系信息發(fā)布平臺,僅提供信息存儲服務(wù)。

友情鏈接更多精彩內(nèi)容