1 賦值的區(qū)別: 動(dòng)態(tài)語(yǔ)言:在給變量賦值時(shí)不用定義變量類(lèi)型 靜態(tài)語(yǔ)言:在給變量賦值時(shí)需要用定義變量類(lèi)型 2 動(dòng)態(tài)語(yǔ)言可以在類(lèi)定義完之后,...
第一步:得到優(yōu)化目標(biāo)。 x是向量,樣本屬性的個(gè)數(shù)就是他的維數(shù)。如下圖,畫(huà)好正負(fù)樣本,分割超平面與兩個(gè)支撐超平面。假設(shè)wx+b=0是分割超平面(w...
https://www.lw84.com/p/B3wrLMDzqQ.html
http://blog.jobbole.com/113493/
A網(wǎng)絡(luò)是生成網(wǎng)絡(luò),B網(wǎng)絡(luò)是用來(lái)計(jì)算損失函數(shù)的(B網(wǎng)絡(luò)是現(xiàn)成的用的別人的網(wǎng)絡(luò),vgg,就是用來(lái)提取特征,計(jì)算損失的。用vgg_net能很好提取到它...
(1)Q_learning:reward表,左邊一列是狀態(tài),右邊是動(dòng)作對(duì)應(yīng)的獎(jiǎng)勵(lì)。Q表格,一個(gè)狀態(tài)轉(zhuǎn)向另一個(gè)狀態(tài)獲得的價(jià)值,初始化是為零。計(jì)算Q...
最近碰到這樣一個(gè)問(wèn)題:為什么ReLU函數(shù)作為激活函數(shù)不會(huì)有梯度消失問(wèn)題,明明當(dāng)x<=0時(shí)函數(shù)的梯度為0,當(dāng)他往回傳的時(shí)候與前面梯度相乘,不就全...
(1)python中1和l,有時(shí)容易弄混 (2)svm中根據(jù)kkt條件來(lái)選擇α,通過(guò)目標(biāo)函數(shù)(其他α固定好后就是一個(gè)一元二次方程)來(lái)優(yōu)化。 (3...
(1)為什么是1/||W||: 這個(gè)得先看約束函數(shù),yi(wT*xi+b)>=1,按比例規(guī)定最小函數(shù)距離等于1,其他所有的都大于它,這就是約束。...