http://blog.csdn.net/hjimce/article/details/50866313這篇文章不錯(cuò)
正則化的作用 正則化是為了防止過(guò)擬合采取的策略,主要的正則化方法有L1、L2、dropout、dropconnect L2正則化 具體的公式如下: 也就是在原來(lái)的代價(jià)函數(shù)上加...
這個(gè)需要翻墻的外國(guó)網(wǎng)站寫(xiě)的很好:http://ruder.io/optimizing-gradient-descent/index.html#momentum SGD遇到的問(wèn)...
神經(jīng)網(wǎng)絡(luò)的參數(shù)也就是權(quán)重W很多,通過(guò)BP反向傳播可以逐漸得到使Cost Function最小的參數(shù),但是這些參數(shù)的初始值對(duì)于收斂的速度,最后的準(zhǔn)確率有很大的影響,那么我們應(yīng)該...
激活函數(shù)的作用 激活函數(shù)的作用是能夠給神經(jīng)網(wǎng)絡(luò)加入一些非線性因素,使得神經(jīng)網(wǎng)絡(luò)可以更好地解決較為復(fù)雜的問(wèn)題。我們知道神經(jīng)網(wǎng)絡(luò)的神經(jīng)元輸入的是x的線性組合wx+b,是線性的,當(dāng)...
前言 在七月初七情人節(jié),牛郎織女相見(jiàn)的一天,我終于學(xué)習(xí)了CNN(來(lái)自CS231n),感覺(jué)感觸良多,所以趕快記下來(lái),別忘了,最后祝大家情人節(jié)快樂(lè)5555555.正題開(kāi)始! CN...
說(shuō)明 QEM網(wǎng)格簡(jiǎn)化可以有效的減少?gòu)?fù)雜網(wǎng)格的頂點(diǎn)數(shù)同時(shí)保留原網(wǎng)格的拓?fù)涮卣?,可以自定義減少后的頂點(diǎn)數(shù),是十分重要的算法,在計(jì)算幾何領(lǐng)域,它實(shí)現(xiàn)的效果是這個(gè)樣子的: 優(yōu)點(diǎn) 1....
前言 小學(xué)期的項(xiàng)目,做之前不和我們說(shuō)是工業(yè)級(jí)的保密算法,做之后,只有一篇論文,還是紙質(zhì)版,沒(méi)有電子版,一個(gè)月的時(shí)間還有許多bug,但是盡力了。使用了Eigen3.0.0和fr...
批量梯度下降和隨機(jī)梯度下降是機(jī)器學(xué)習(xí)中很常用的學(xué)習(xí)方法,批量梯度下降更為準(zhǔn)確,但是每一輪訓(xùn)練都要遍歷全部的樣本而隨機(jī)梯度下降則沒(méi)有這一問(wèn)題,但是他最后的結(jié)果會(huì)在局部最優(yōu)解附近...
前言 學(xué)習(xí)機(jī)器學(xué)習(xí)一直是用梯度下降法的,對(duì)于牛頓下降法并沒(méi)有什么了解,但是小學(xué)期同學(xué)的一個(gè)項(xiàng)目用到了牛頓下降法,同時(shí)好多大神同學(xué)的夏令營(yíng)之旅問(wèn)到了牛頓下降法(我等弱雞瘋狂被刷...
算法步驟 算法很簡(jiǎn)單一共4步: 1)隨機(jī)在圖中取K個(gè)種子點(diǎn)。2)然后對(duì)圖中的所有點(diǎn)求到這K個(gè)種子點(diǎn)的距離,假如點(diǎn)Pi離種子點(diǎn)Si最近,那么Pi屬于Si點(diǎn)群。(上圖中,我們可以...
前言 PCA是一種無(wú)參數(shù)的數(shù)據(jù)降維方法,在機(jī)器學(xué)習(xí)中很常用,這篇文章主要從三個(gè)角度來(lái)說(shuō)明PCA是怎么降維的分別是方差角度,特征值和特征向量以及SVD奇異值分解。 PCA的推導(dǎo)...
一些基礎(chǔ) 關(guān)于正交矩陣 正交矩陣是指各行所形成的多個(gè)向量間任意拿出兩個(gè),都能正交關(guān)系式,正交矩陣的重要性質(zhì)是AT=A-1,向量正交是指兩個(gè)向量的內(nèi)積為0,也就是三維空間上兩個(gè)...
前言 大二學(xué)了線代,講了特征值和特征向量,但是老師的暴力朗讀ppt真是讓我覺(jué)得夠了,還有關(guān)于特征值和特征向量就是單純的公式求解,為什么是這樣的一概不講,有什么用,有什么意義一...
前言 看了麻省理工的線性代數(shù)的一部分課程,主要是補(bǔ)補(bǔ)課,大二線代忘得差不多,主要目的是學(xué)習(xí)SVD,學(xué)習(xí)SVD之前補(bǔ)補(bǔ)前面的課,第一課就是LU分解了。 什么是LU分解 L是指下...