在前面章節(jié)中,深入闡述了PyTorch和深度學(xué)習(xí)的基礎(chǔ)知識,包括PyTorch的安裝、常用命令和基本操作,講述了深度神經(jīng)網(wǎng)絡(luò)、卷積神經(jīng)網(wǎng)絡(luò)、循環(huán)...
前面提到了CNN和基于CNN的各類網(wǎng)絡(luò)及其在圖像處理上的應(yīng)用。這類網(wǎng)絡(luò)有一個特點,就是輸入和輸出都是固定長度的。比方說在MNIST、CIFAR-...
前面介紹了深度神經(jīng)網(wǎng)絡(luò)和卷積神經(jīng)網(wǎng)絡(luò),這些神經(jīng)網(wǎng)絡(luò)有個特點:輸入的向量越大,訓(xùn)練得到的模型越大。但是,擁有大量參數(shù)模型的代價是昂貴的,它需要大量...
以全連接層為基礎(chǔ)的深度神經(jīng)網(wǎng)絡(luò)DNN是整個深度學(xué)習(xí)的基石。要說應(yīng)用最廣、影響最大的深度神經(jīng)網(wǎng)絡(luò),那就是卷積神經(jīng)網(wǎng)絡(luò)(Convolutional ...
前面我們介紹了神經(jīng)網(wǎng)絡(luò),包括神經(jīng)元函數(shù),激活函數(shù),前向算法,反向傳播算法,梯度下降等,這些內(nèi)容基本上是傳統(tǒng)神經(jīng)網(wǎng)絡(luò)的范疇,這個浪潮大致在1980...
本節(jié)從神經(jīng)網(wǎng)絡(luò)的發(fā)展著手,依次介紹激活函數(shù)、前向算法、損失函數(shù)、反向傳播算法以及PyTorch中的數(shù)據(jù)處理,最后使用PyTorch解決一個iri...
PyTorch的許多函數(shù)在使用上和Numpy幾乎一樣,能夠平滑地結(jié)合使用,Numpy的絕大多數(shù)操作同樣可以用在PyTorch中。PyTorch的...
PyTorch的安裝非常簡單,分為兩步: (1)安裝Anaconda這個網(wǎng)上教程很多,這里不再詳述。 (2)安裝PyTorch打開PyTorch...
圍棋號稱人類最復(fù)雜的棋類運動,但近兩年來,在AlphaGo的沖擊下,已經(jīng)潰不成軍。繼2016年AlphaGo以4:1擊敗韓國李世石,2017年A...