一 寫在前面 未經(jīng)允許,不得轉(zhuǎn)載,謝謝~~~ 一個暑假都木有更新博客(/認真捂臉.jpg) 馬上就開學(xué)了,新學(xué)期加油哦~~~ 這篇文章主要學(xué)習(xí)一下PyTorch如何用Tens...
一 寫在前面 未經(jīng)允許,不得轉(zhuǎn)載,謝謝~~~ 一個暑假都木有更新博客(/認真捂臉.jpg) 馬上就開學(xué)了,新學(xué)期加油哦~~~ 這篇文章主要學(xué)習(xí)一下PyTorch如何用Tens...
前言 本文旨在學(xué)習(xí)和記錄,如需轉(zhuǎn)載,請附出處http://www.itdecent.cn/p/ea566512b04f KNN 原理 K近鄰(K-nearest neigh...
前言 本文旨在學(xué)習(xí)和記錄,如需轉(zhuǎn)載,請附出處http://www.itdecent.cn/p/e1edb629eab2 Linear classification 在cs2...
前言 本文旨在學(xué)習(xí)和記錄,如需轉(zhuǎn)載,請附出處http://www.itdecent.cn/p/f9cb3665ff01 神經(jīng)網(wǎng)絡(luò) 這里的神經(jīng)網(wǎng)絡(luò)一般指人工神經(jīng)網(wǎng)絡(luò),是一種模...
前言 本文旨在學(xué)習(xí)和記錄,如需轉(zhuǎn)載,請附出處http://www.itdecent.cn/p/113246eb8f3b 一、網(wǎng)絡(luò)參數(shù)初始化 在神經(jīng)網(wǎng)絡(luò)訓(xùn)練中,訓(xùn)練最小化損失...
前言 本文旨在學(xué)習(xí)和記錄,如需轉(zhuǎn)載,請附出處http://www.itdecent.cn/p/59aaaaab746a Normalization Normalizatio...
前言 本文旨在學(xué)習(xí)和記錄,如需轉(zhuǎn)載,請附出處http://www.itdecent.cn/p/7b00149dc797 參數(shù)更新 神經(jīng)網(wǎng)絡(luò)學(xué)習(xí)的目標(biāo)是找到一組使損失函數(shù)盡可...
前言 本文旨在學(xué)習(xí)和記錄,如需轉(zhuǎn)載,請附出處http://www.itdecent.cn/p/beb772848c3b 訓(xùn)練trick cs231n系列博客之(4),(5)...
CNN從2012年的AlexNet發(fā)展至今,科學(xué)家們發(fā)明出各種各樣的CNN模型,一個比一個深,一個比一個準(zhǔn)確,一個比一個輕量。我下面會對近幾年一些具有變革性的工作進行簡單盤點...