模型壓縮是個(gè)很大的罩子,其中一些內(nèi)容比如模型剪枝,知識(shí)蒸餾是現(xiàn)在的研究熱點(diǎn)。本菜鳥(niǎo)想蹭熱點(diǎn)但是水平有限,所以暫時(shí)只能從最簡(jiǎn)單的部分開(kāi)始走。以前的...
我認(rèn)為深度學(xué)習(xí)用在嵌入式設(shè)備上也就兩條路,1:讓嵌入式設(shè)備更強(qiáng)大。2:讓算法更精簡(jiǎn)。第一條路也就是各種加速卡或者專業(yè)設(shè)計(jì)的智能芯片?,F(xiàn)在越來(lái)越多...
上一篇MLP的構(gòu)建過(guò)程就像直男和女神的交往過(guò)程,直男覺(jué)得和女神聊的挺好,對(duì)女神足夠了解,結(jié)果真正要給女神表白了才發(fā)現(xiàn)對(duì)女神一點(diǎn)都不了解。我就是那...
主要內(nèi)容:使用pytorch搭建一個(gè)簡(jiǎn)單的神經(jīng)網(wǎng)絡(luò)對(duì)西瓜數(shù)據(jù)集進(jìn)行分類??偨Y(jié)交叉熵?fù)p失函數(shù)和均方差損失函數(shù)的使用范圍,簡(jiǎn)單介紹pytorch的數(shù)...
本來(lái)要寫(xiě)神經(jīng)網(wǎng)絡(luò)中前向傳播和反向傳播的一些東西。準(zhǔn)備使用西瓜數(shù)據(jù)集建立一個(gè)超級(jí)簡(jiǎn)單的兩層MLP進(jìn)行分析。但是著手動(dòng)鍵盤(pán)以后發(fā)現(xiàn)西瓜數(shù)據(jù)集是一個(gè)離...
跟導(dǎo)師聯(lián)系了一下,以后一段時(shí)間恐怕不會(huì)做粗糙集相關(guān)的內(nèi)容,又要回到深度學(xué)習(xí)的深坑。在只有一張GTX1060 3G的情況下能不能出關(guān)于深度學(xué)習(xí)的成...
最近在學(xué)習(xí)粗糙集,但是其抽象的概念令我學(xué)習(xí)異常吃力。我使用的是周煒編著的《粗糙集理論及應(yīng)用》,這本書(shū)概念居多,很多數(shù)學(xué)符號(hào)我沒(méi)有見(jiàn)過(guò),又不知道怎...
上次實(shí)現(xiàn)的模糊均值聚類算法有一點(diǎn)小問(wèn)題。與聚類中心的距離應(yīng)該是平方,我直接做了一個(gè)開(kāi)方。直覺(jué)模糊集是模糊集的擴(kuò)展,因此理論上而言直覺(jué)模糊C均值聚...
最近在學(xué)習(xí)粗糙集相關(guān)知識(shí)。模糊集作為相似的領(lǐng)域也一并了解。在應(yīng)用方面,模糊集在圖像分割方面應(yīng)用比較廣。中文資料中,模糊C均值聚類算法的資料最為豐...