我們以resnet18為例,介紹幾種獲取模型摘要的方法。 1.直接使用PrettyTable 效果如下: 比較簡(jiǎn)單,也沒有模型的輸入輸出情況。 2. TorchSummary...
1. 前言 文本分類是個(gè)經(jīng)典的NLP任務(wù)。隨著預(yù)訓(xùn)練語言模型的大受歡迎,諸如Bert等預(yù)訓(xùn)練語言模型在文本分類任務(wù)上也有這十分出色的表現(xiàn)。這篇文章并沒有什么高深的tricks...
神經(jīng)網(wǎng)絡(luò)在進(jìn)行參數(shù)優(yōu)化的過程中,經(jīng)常需要對(duì)學(xué)習(xí)率進(jìn)行動(dòng)態(tài)調(diào)整。那么PyTorch的torch.optim.lr_scheduler接口提供了很多策略實(shí)現(xiàn)動(dòng)態(tài)調(diào)整。我們選取一些...
1. 模型評(píng)估 在機(jī)器學(xué)習(xí)領(lǐng)域,模型評(píng)估至關(guān)重要,只有選擇和問題相匹配的評(píng)估方法,才能更快更好的完成訓(xùn)練。將模型評(píng)估之前,需要有幾個(gè)定義牢記心中。 TP — 將正樣本分類為正...
1. Faiss簡(jiǎn)介 Faiss是Facebook開源的一款用于大規(guī)模P維向量最近鄰檢索的工具。 Faiss is a library for efficient simil...
我們知道神經(jīng)網(wǎng)絡(luò)在圖片、信號(hào)等領(lǐng)域大放異彩。但在表格數(shù)據(jù)領(lǐng)域,基本還是樹模型的主場(chǎng)。今天我們介紹下TabNet的使用方式,這是一個(gè)能夠很好的處理tabular數(shù)據(jù)的神經(jīng)網(wǎng)絡(luò)模...
XGBoost作為比賽大殺器,內(nèi)置了幾種重要性函數(shù),今天我們就在這篇文章中梳理三種常見的特征重要性計(jì)算方法,并思考他們的使用場(chǎng)景。 在上邊函數(shù)中,我們可以通過修改import...
最近在嘗試用transformers做英漢翻譯,用的是opus-mt-en-zh。本來代碼已經(jīng)寫好了,但是在另一臺(tái)代腦上run的時(shí)候出現(xiàn)了如下錯(cuò)誤: 遇到這個(gè)問題,很明顯要檢...
之前已經(jīng)介紹了TenforFlow的基本操作和神經(jīng)網(wǎng)絡(luò),主要是全聯(lián)接網(wǎng)絡(luò)的一些概念:tf2.0學(xué)習(xí)(一)——基礎(chǔ)知識(shí)[http://www.itdecent.cn/p/78...
1. Bert模型下載 這里直接使用huggingface提供的pre-trained的bert模型,直接去官網(wǎng)即可搜索想要的模型并下載:https://huggingfac...
前邊介紹了TensorFlow的基本操作和Keras的高層接口:tf2.0學(xué)習(xí)(一)——基礎(chǔ)知識(shí)[http://www.itdecent.cn/p/78f91c9dc135...
前邊介紹了TensorFlow的基本操作和神經(jīng)網(wǎng)絡(luò)的很多知識(shí):tf2.0學(xué)習(xí)(一)——基礎(chǔ)知識(shí)[http://www.itdecent.cn/p/78f91c9dc135]...
前邊介紹了TensorFlow的基本操作:tf2.0學(xué)習(xí)(一)——基礎(chǔ)知識(shí)[http://www.itdecent.cn/p/78f91c9dc135]tf2.0學(xué)習(xí)(二)...
我們接著之前的內(nèi)容tf2.0學(xué)習(xí)(一)——基礎(chǔ)知識(shí)[http://www.itdecent.cn/p/78f91c9dc135]tf2.0學(xué)習(xí)(二)——進(jìn)階知識(shí)[https...
之前的文章分別介紹了TensorFlow中張量的一些基本知識(shí):tf2.0學(xué)習(xí)(一)——基礎(chǔ)知識(shí)[http://www.itdecent.cn/p/78f91c9dc135]...
深度學(xué)習(xí)中的常用框架,無論是PyTorch還是TensorFlow,都封裝了很多優(yōu)化器。那么各優(yōu)化器之間有什么優(yōu)點(diǎn)和缺點(diǎn)呢。下面我們就回顧一下主流的優(yōu)化算法。 1. 前言 當(dāng)...
SVR gamma是選擇RBF函數(shù)作為kernel后,該函數(shù)自帶的一個(gè)參數(shù)。隱含地決定了數(shù)據(jù)映射到新的特征空間后的分布,gamma越大,支持向量越少,gamma值越小,支持向...
前一篇文章[http://www.itdecent.cn/p/78f91c9dc135]介紹了TensorFlow的基礎(chǔ)知識(shí),主要是張量的基本操作,這篇文章主要介紹有些張量...