作者:流浪的拉多weibo.com/ttarticle/p/show?id=2309404241869646237445 作為前端工程師,有時需要將做到一半的網(wǎng)頁發(fā)送給 PM...
作者:流浪的拉多weibo.com/ttarticle/p/show?id=2309404241869646237445 作為前端工程師,有時需要將做到一半的網(wǎng)頁發(fā)送給 PM...
(1)條件概率公式 設(shè)A,B是兩個事件,且P(B)>0,則在事件B發(fā)生的條件下,事件A發(fā)生的條件概率(conditional probability)為: ...
Mini-batch 梯度下降 如果訓練集較小,直接使用 batch 梯度下降法,樣本集較小就沒必要使用 mini-batch 梯度下降法,你可以快速處理整個訓練集,所以使用...
大數(shù)據(jù)時代,我們現(xiàn)在的數(shù)據(jù)量可能是百萬級別,那么驗證集和測試集占數(shù)據(jù)總量的比例會趨向于變得更小。因為驗證集的目的就是驗證不同的算法,檢驗哪種算法更有效,因此,驗證集要足夠大才...
為避免隱層神經(jīng)元的作用完全一樣,我們可以隨機初始化參數(shù),例如:把??[1] 設(shè)為np.random.randn(2,2)(生成高斯分布),通常再乘上一個小的數(shù),比如 0.01,...
為什么relu這種“看似線性”(分段線性)的激活函數(shù)所形成的網(wǎng)絡(luò),居然能夠增加非線性的表達能力。 1、首先什么是線性的網(wǎng)絡(luò),如果把線性網(wǎng)絡(luò)看成一個大的矩陣M。那么輸入樣本A和...
VS Code中開啟筆記本模式,代碼前加一行#%%就可以了。 Code Runner中打開Run in terminal設(shè)置即可支持conda虛擬環(huán)境了。
計算圖:TODO Session Where we launch the graph. A Session object is the part of the TensorF...
監(jiān)督學習指的就是我們給學習算法一個數(shù)據(jù)集。這個數(shù)據(jù)集由“正確答案”組 成。 在無監(jiān)督學習中,我們已知的數(shù)據(jù)??瓷先ビ悬c不一樣,不同于監(jiān)督學習的數(shù)據(jù)的樣子, 即無監(jiān)督學習中沒有...
損失函數(shù)一般用歐式距離的平方,但某些條件下(例如激活函數(shù)的選擇),會造成代價函數(shù)是非凸的,這不利于我們找到全局最小值,這時我們不得不另做打算,比如上面的邏輯回歸問題中損失函數(shù)...
Sigmoid將輸出映射到(0,1)區(qū)間,并將線性數(shù)據(jù)映射到非線性空間 ReLU將輸出映射到(0,?)范圍內(nèi),本質(zhì)上是,為的是剔除不必要的負值數(shù)據(jù),相較于Sigmoid函數(shù),...
第一步 配置HTTP代理,這步與抓取HTTP請求是一樣的: 選擇在8888端口上監(jiān)聽,然后確定。勾選了SOCKS proxy,還能截獲到瀏覽器的http訪問請求。 第二步 安...
根據(jù)錯誤信息將對應模塊手動下載下來后,放到Homebrew緩存文件夾再重新安裝。 具體過程如下: 比如安裝python@2時遇如下報錯: 拷貝地址https://ftp.gn...
根據(jù)Mac OS X操作系統(tǒng)的版本選擇以下命令:Mac OS X 12 (Sierra) and later: Mac OS X 11 (El Capitan) and OS...