你們團(tuán)隊(duì)有限制在制品(WIP limits)嗎?效果如何?看看下面的問(wèn)題: 在制品是指什么?用戶故事(User Story)還是任務(wù)項(xiàng)(Task)? 限制在制品是為了什么? ...
你們團(tuán)隊(duì)有限制在制品(WIP limits)嗎?效果如何?看看下面的問(wèn)題: 在制品是指什么?用戶故事(User Story)還是任務(wù)項(xiàng)(Task)? 限制在制品是為了什么? ...
snap簡(jiǎn)介 Snap的安裝包擴(kuò)展名是.snap snap軟件包一般安裝在/snap目錄下 商店提供了不少好的應(yīng)用: https://snapcraft.io/store 在...
Log g,p (st mod p) = (log g,p s + log g,p t) mod (p - 1) Log g,p (g ^r mod p) = r, 0 <=...
轉(zhuǎn)載于:https://www.cnblogs.com/tp1226/p/8453854.html __init__.py該文件的作用就是相當(dāng)于把自身整個(gè)文件夾當(dāng)作一個(gè)包來(lái)管...
1.前向傳播 最大子采樣函數(shù)取區(qū)域內(nèi)所有神經(jīng)元的最大值(max-pooling)。以下圖為例,輸入數(shù)據(jù)X為4*4,采樣核size為2,stride為2,no padding。...
幾乎所有的深度學(xué)習(xí)框架背后的設(shè)計(jì)核心都是張量和計(jì)算圖,PyTorch也不例外,本章我們將學(xué)習(xí)PyTorch中的張量系統(tǒng)(Tensor)和自動(dòng)微分系統(tǒng)(autograd)。 3...
Autoencoder 的基本概念 之前的文章介紹過(guò)機(jī)器學(xué)習(xí)中的監(jiān)督學(xué)習(xí)和非監(jiān)督學(xué)習(xí),其中非監(jiān)督學(xué)習(xí)簡(jiǎn)單來(lái)說(shuō)就是學(xué)習(xí)人類沒(méi)有標(biāo)記過(guò)的數(shù)據(jù)。對(duì)于沒(méi)有標(biāo)記的數(shù)據(jù)最常見(jiàn)的應(yīng)用就是通...
之前沿著這樣的路線:AlexNet,VGG,GoogLeNet v1,ResNet,DenseNet把主要的經(jīng)典的分類網(wǎng)絡(luò)的paper看完了,主要是人們發(fā)現(xiàn)很深的網(wǎng)絡(luò)很難tr...
把模型model.eval()作用是為了固定BN和dropout層,使得偏置參數(shù)不隨著發(fā)生變化。因?yàn)楫?dāng)batchsize小時(shí),如果沒(méi)有固定,會(huì)對(duì)圖像的失真有很大的影響。
pytorch之保存與加載模型 本篇筆記譯自pytorch官網(wǎng)tutorial,用于方便查看。pytorch與保存、加載模型有關(guān)的常用函數(shù)3個(gè): torch.save(): ...
1. 認(rèn)識(shí)這個(gè)詞(基礎(chǔ)篇) 詞:trade-off 英英釋義:a balance between two opposing things, that you are will...
“我曾經(jīng)跨過(guò)山和大海,也穿過(guò)人山人海。我曾經(jīng)擁有著的一切,轉(zhuǎn)眼都飄散如煙。我曾經(jīng)失落失望失掉所有方向,直到看見(jiàn)平凡才是唯一的答案。” 以下是我多年前的一篇日記,記錄了平凡的一...