1 BERT簡介 BERT是2018年google 提出來的預(yù)訓(xùn)練的語言模型,并且它打破很多NLP領(lǐng)域的任務(wù)記錄,其提出在nlp的領(lǐng)域具有重要意...
BERT論文地址:https://arxiv.org/abs/1810.04805翻譯 https://arxiv.org/pdf/1810.0...
原文 https://pytorch.org/docs/stable/distributed.html 后端 torch.distributed...
原文 https://pytorch.org/tutorials/intermediate/dist_tuto.html#writing-dis...
1. 數(shù)據(jù)增強(qiáng)Data Augmentation 數(shù)據(jù)增強(qiáng)讓有限的數(shù)據(jù)產(chǎn)生更多的數(shù)據(jù),增加訓(xùn)練樣本的數(shù)量以及多樣性(噪聲數(shù)據(jù)),提升模型魯棒性。...
1 前言 在實(shí)現(xiàn)一個優(yōu)秀人臉識別系統(tǒng)的過程中,應(yīng)該有以下重要環(huán)節(jié)。1、干凈而且大量的數(shù)據(jù)。2、優(yōu)秀的網(wǎng)絡(luò)結(jié)構(gòu)。3、優(yōu)秀的網(wǎng)絡(luò)指揮棒(損失函數(shù))。...
1.前言 近年來隨著硬件計(jì)算能力的大爆發(fā),在高性能計(jì)算的支持下深度學(xué)習(xí)有了革命性的進(jìn)步,在互聯(lián)網(wǎng)大數(shù)據(jù)的保證下深度學(xué)習(xí)有了持續(xù)不斷的動力,優(yōu)秀的...
1.極大似然估計(jì) 眾所周知,極大似然估計(jì),只是一種概率論在統(tǒng)計(jì)學(xué)的應(yīng)用,它是參數(shù)估計(jì)的方法之一。說的是已知某個隨機(jī)樣本滿足某種概率分布,但是其中...
1 模型的選擇(選超參數(shù)) 交叉驗(yàn)證(Cross validation),用于防止模型過于復(fù)雜而引起的過擬合,有時亦稱循環(huán)估計(jì)。 它是一種統(tǒng)計(jì)學(xué)...