數(shù)學(xué)基礎(chǔ) MCMC 采樣 MCMC 采樣 一、機(jī)器學(xué)習(xí) 1、無監(jiān)督學(xué)習(xí) 聚類 Kmeans 聚類 降維 PCA 理論 PCA、LDA 算法 二、...
最近工作中需要解析圖片中的文本信息,進(jìn)行文本數(shù)據(jù)分析,首先需要提取圖片中的文字,解決方案如下: 1、需要安裝包 2、提取示例 3、可能遇到問題 ...
問題分析 有一篇很長的文章,用計(jì)算機(jī)提取它的關(guān)鍵詞(Automatic Keyphrase extraction),完全不加以人工干預(yù),請問怎樣...
在上一篇文章我們學(xué)習(xí)了基本的數(shù)據(jù)增強(qiáng)的 N 種方法,今天我們針對“序列標(biāo)注”任務(wù)具體聊一聊如何數(shù)據(jù)增強(qiáng)?“序列標(biāo)注”是一個 token-leve...
機(jī)器學(xué)習(xí)領(lǐng)域有個很重要的假設(shè):IID獨(dú)立同分布假設(shè),就是假設(shè)訓(xùn)練數(shù)據(jù)和測試數(shù)據(jù)是滿足相同分布的,這是通過訓(xùn)練數(shù)據(jù)獲得的模型能夠在測試集獲得好的效...
什么是數(shù)據(jù)增強(qiáng) 數(shù)據(jù)增強(qiáng)可以簡單理解為由少量數(shù)據(jù)生成大量數(shù)據(jù)的過程。一般比較成功的神經(jīng)網(wǎng)絡(luò)擁有大量參數(shù),使這些參數(shù)正確工作需要用大量的數(shù)據(jù)進(jìn)行訓(xùn)...
在處理 NLP 相關(guān)任務(wù)的時候(文本分類、聚類,智能客服等),首要任務(wù)是對文本數(shù)據(jù)進(jìn)行預(yù)處理。結(jié)合自己的實(shí)踐經(jīng)驗(yàn),總結(jié)了 N 條預(yù)處理的方法。 ...
RNN RNN 是一種利用神經(jīng)網(wǎng)絡(luò)對序列模型的通用模型 利用歷史信息結(jié)合當(dāng)前輸入進(jìn)行預(yù)測 適合解決時間序列輸入輸出問題,對于 NLP 來說就是序...
CNN Basic Model 卷積層 由不同窗口大小的 Filter 構(gòu)成 Filter 個數(shù)由自己決定,超參數(shù)。 同一個 Filter 參數(shù)...