我們想要的是通過(guò)之前的平均值,求新的平均值:只要知道了的算法,就可以實(shí)現(xiàn)只要已有平均值 和 新添加值,就可以算出新的平均值 用 和 帶入公式: 帶入公式
我們想要的是通過(guò)之前的平均值,求新的平均值:只要知道了的算法,就可以實(shí)現(xiàn)只要已有平均值 和 新添加值,就可以算出新的平均值 用 和 帶入公式: 帶入公式
數(shù)據(jù)和枚舉的對(duì)應(yīng)關(guān)系:{A:1, B:2, C:3, ...} 網(wǎng)絡(luò)層輸入按照枚舉方式,比如是A的話(huà),那么輸入層就是A: [1, 0, 0, 0, 0, 0, ...], 如...
是無(wú)知的可怕。 有一類(lèi)數(shù),可以用兩個(gè)數(shù)的比值來(lái)表示,比如 在古希臘(及希臘系的英語(yǔ)),這類(lèi)數(shù)叫 ratio(估算,計(jì)算,原因,兩數(shù)的關(guān)系,和reason同出一室,發(fā)音都差不多...
probability:發(fā)生的概率 發(fā)生的次數(shù)/總次數(shù)0:不發(fā)生 1:必發(fā)生 odds:發(fā)生比 發(fā)生的概率 / 不發(fā)生的概率0:不發(fā)生,:必發(fā)生 logits: 發(fā)生比的lo...
從一個(gè)樣本空間中,抽樣。比如:我要抽 [0, 1, 2] 三個(gè)物體,共100次,那我希望: 0能抽到20次左右 1能抽到70次左右 2能抽到30次左右
policy gradient 其實(shí)就是 的平均數(shù): corssentropy是加法,總和。這里需要每一項(xiàng),所以就取一個(gè)平均值。 好算,就是遞減獎(jiǎng)勵(lì)累加,字面意思,一次完整...
國(guó)內(nèi)游戲公司普遍分不清 項(xiàng)目經(jīng)理 和 制作人,產(chǎn)品經(jīng)理的區(qū)別。我試著區(qū)分一下: 國(guó)外 制作人 這個(gè)職位,不負(fù)責(zé) 游戲的設(shè)計(jì) 和 發(fā)布(對(duì)這兩樣的認(rèn)知 和 意識(shí) 是要有的)詳見(jiàn)...
Q-learning 是RL的核心 Q 代表 Quality 品質(zhì) 系統(tǒng)維護(hù)一個(gè)Q值表: 13.31.622.67.832.49.541.35.6 當(dāng)前agent下一步要采取...
數(shù)組維度和方向(連接) gather() 函數(shù)是按照索引選取數(shù)字: 一個(gè)二維數(shù)組,如果沿第0維選取元素,則按照將頭方向依次選取數(shù)字。0,2,1就是如圖: 如果沿第1維選取元素...
在python里,*號(hào)代表拆分,把list/tuple里的元素拆出來(lái),如: zip()的作用是交叉合并元素,就像拉鏈一樣: list(zip(*li))[(1, 4, 7),...
二、 卷積網(wǎng)絡(luò)和訓(xùn)練 接上回 處理環(huán)境圖片。python幾處值得關(guān)注的用法(連接) 示例用卷積網(wǎng)絡(luò)來(lái)訓(xùn)練動(dòng)作輸出: 還是比較直白的: Conv 3通道 16通道 Con...
一、 獲取并處理環(huán)境圖像 本文所刨析的代碼是“pytorch官網(wǎng)的DQN示例”(頁(yè)面),用卷積層配合強(qiáng)化訓(xùn)練去學(xué)習(xí)小車(chē)立桿,所使用的環(huán)境是“小車(chē)立桿環(huán)境”(CartPole)...
只需要3種運(yùn)算:加法,乘法,帶入函數(shù) 加法:左右 左右乘法:左右 左右左右函數(shù):鏈?zhǔn)椒▌t 其他所有復(fù)雜運(yùn)算,都可以層層剝離,最終變?yōu)檫@3種運(yùn)算,如:減法:就是,除法:就是
1.計(jì)算各種組合的 期望回報(bào)/風(fēng)險(xiǎn): 每n天收益率集合:期望回報(bào):求平均值風(fēng)險(xiǎn):求標(biāo)準(zhǔn)差 計(jì)算Efficient frontier將所有值繪圖,找到無(wú)風(fēng)險(xiǎn)收益點(diǎn),然后繪制切線(xiàn)...
總結(jié):Softmax就是將數(shù)值轉(zhuǎn)為概率。交叉熵就是求兩組概率分布的偏差。 有如下:: 可以看作是 可以看作是 是的log值, 越大越大。 log( [0, 1) )log(...
矩陣的索引順序: 方向(就是最內(nèi)層數(shù)組)永遠(yuǎn)是最后一個(gè)方向:。是倒數(shù)第二是倒數(shù)第三依次往前推…… 比如,一個(gè)3維矩陣(如圖),第一個(gè)元素的坐標(biāo)是:或者:如果是一個(gè)4維矩陣,第...
通常NN層的描述如下: units 的值: 數(shù)據(jù)如下: keras層的定義: keras層的數(shù)據(jù)對(duì)應(yīng)方式 (n=5):
微積分有兩個(gè)主要概念: 1. Derivative 導(dǎo)數(shù): 曲線(xiàn)上兩點(diǎn)A、B,過(guò)兩點(diǎn)有一條線(xiàn),B不斷移向A,最終與A重疊,這時(shí),這條線(xiàn)就是曲線(xiàn)在A(yíng)點(diǎn)的切線(xiàn)(tangent)。...
從前有一個(gè)原始人,他養(yǎng)了幾頭羊??,他希望天天都可以在自己的家,明確的知道羊的數(shù)量。 于是他找來(lái)1個(gè)碟子,又去海邊撿了許多一樣大小的石子。他試著放了一下,一個(gè)碟子里恰巧可以放9...