http://blog.csdn.net/hjimce/article/details/50866313這篇文章不錯
正則化的作用 正則化是為了防止過擬合采取的策略,主要的正則化方法有L1、L2、dropout、dropconnect L2正則化 具體的公式如下...
這個需要翻墻的外國網(wǎng)站寫的很好:http://ruder.io/optimizing-gradient-descent/index.html#m...
神經(jīng)網(wǎng)絡(luò)的參數(shù)也就是權(quán)重W很多,通過BP反向傳播可以逐漸得到使Cost Function最小的參數(shù),但是這些參數(shù)的初始值對于收斂的速度,最后的準...
激活函數(shù)的作用 激活函數(shù)的作用是能夠給神經(jīng)網(wǎng)絡(luò)加入一些非線性因素,使得神經(jīng)網(wǎng)絡(luò)可以更好地解決較為復(fù)雜的問題。我們知道神經(jīng)網(wǎng)絡(luò)的神經(jīng)元輸入的是x的...
前言 在七月初七情人節(jié),牛郎織女相見的一天,我終于學習了CNN(來自CS231n),感覺感觸良多,所以趕快記下來,別忘了,最后祝大家情人節(jié)快樂5...
說明 QEM網(wǎng)格簡化可以有效的減少復(fù)雜網(wǎng)格的頂點數(shù)同時保留原網(wǎng)格的拓撲特征,可以自定義減少后的頂點數(shù),是十分重要的算法,在計算幾何領(lǐng)域,它實現(xiàn)的...
前言 小學期的項目,做之前不和我們說是工業(yè)級的保密算法,做之后,只有一篇論文,還是紙質(zhì)版,沒有電子版,一個月的時間還有許多bug,但是盡力了。使...
批量梯度下降和隨機梯度下降是機器學習中很常用的學習方法,批量梯度下降更為準確,但是每一輪訓(xùn)練都要遍歷全部的樣本而隨機梯度下降則沒有這一問題,但是...