模型壓縮是個很大的罩子,其中一些內(nèi)容比如模型剪枝,知識蒸餾是現(xiàn)在的研究熱點。本菜鳥想蹭熱點但是水平有限,所以暫時只能從最簡單的部分開始走。以前的...
我認(rèn)為深度學(xué)習(xí)用在嵌入式設(shè)備上也就兩條路,1:讓嵌入式設(shè)備更強大。2:讓算法更精簡。第一條路也就是各種加速卡或者專業(yè)設(shè)計的智能芯片?,F(xiàn)在越來越多...
上一篇MLP的構(gòu)建過程就像直男和女神的交往過程,直男覺得和女神聊的挺好,對女神足夠了解,結(jié)果真正要給女神表白了才發(fā)現(xiàn)對女神一點都不了解。我就是那...
主要內(nèi)容:使用pytorch搭建一個簡單的神經(jīng)網(wǎng)絡(luò)對西瓜數(shù)據(jù)集進行分類??偨Y(jié)交叉熵?fù)p失函數(shù)和均方差損失函數(shù)的使用范圍,簡單介紹pytorch的數(shù)...
本來要寫神經(jīng)網(wǎng)絡(luò)中前向傳播和反向傳播的一些東西。準(zhǔn)備使用西瓜數(shù)據(jù)集建立一個超級簡單的兩層MLP進行分析。但是著手動鍵盤以后發(fā)現(xiàn)西瓜數(shù)據(jù)集是一個離...
跟導(dǎo)師聯(lián)系了一下,以后一段時間恐怕不會做粗糙集相關(guān)的內(nèi)容,又要回到深度學(xué)習(xí)的深坑。在只有一張GTX1060 3G的情況下能不能出關(guān)于深度學(xué)習(xí)的成...
最近在學(xué)習(xí)粗糙集,但是其抽象的概念令我學(xué)習(xí)異常吃力。我使用的是周煒編著的《粗糙集理論及應(yīng)用》,這本書概念居多,很多數(shù)學(xué)符號我沒有見過,又不知道怎...
上次實現(xiàn)的模糊均值聚類算法有一點小問題。與聚類中心的距離應(yīng)該是平方,我直接做了一個開方。直覺模糊集是模糊集的擴展,因此理論上而言直覺模糊C均值聚...
最近在學(xué)習(xí)粗糙集相關(guān)知識。模糊集作為相似的領(lǐng)域也一并了解。在應(yīng)用方面,模糊集在圖像分割方面應(yīng)用比較廣。中文資料中,模糊C均值聚類算法的資料最為豐...