??本文的靈感來自于A Visual Guide to Using BERT for the First Time,其作者為Jay Alamma...
投稿
??本文的靈感來自于A Visual Guide to Using BERT for the First Time,其作者為Jay Alamma...
問題背景 對(duì)于分類問題,尤其是多類別分類問題中,常常把類別向量做成one-hot vector(獨(dú)熱向量)。 簡單地說,就是對(duì)于多分類向量,計(jì)算...
在之前的文章《利用Word2vec生成句向量(一)》中,介紹了兩種句向量的生成方法,本文將介紹一種號(hào)稱"簡單卻具有一定競爭力"的句向量表示方法:...
引言 最近依舊在做命名實(shí)體識(shí)別的任務(wù),一直在想如何能在保證效率的前提下,提升BERT+BiLSTM+CRF這個(gè)主流模型的準(zhǔn)確率?!?達(dá)觀杯 ”的...
最近做命名實(shí)體識(shí)別(NER)的任務(wù)比較多,也剛剛接觸NER不久,做一下小小的總結(jié)。近兩年中文命名實(shí)體識(shí)別在信息抽取和關(guān)系抽取上的應(yīng)用受到了研究人...
Collobert等提出一個(gè)有效的神經(jīng)網(wǎng)絡(luò)模型,只需要little feature engineering而不是在大量的unlabelled t...
與計(jì)算機(jī)視覺中使用圖像進(jìn)行數(shù)據(jù)增強(qiáng)不同,NLP中文本數(shù)據(jù)增強(qiáng)是非常罕見的。這是因?yàn)閳D像的一些簡單操作,如將圖像旋轉(zhuǎn)或?qū)⑵滢D(zhuǎn)換為灰度,并不會(huì)改變其...
這篇回答你絕對(duì)看得懂!如下圖,假如你從S和E之間找一條最短的路徑,除了遍歷完所有路徑,還有什么更好的方法? 答案:viterbi (維特比)算法...
前面說的是ner的經(jīng)典算法以及今年的一些比較好的工作,最近bert模型刷新了NLP的絕大部分任務(wù),可謂是一夜之間火爆了整個(gè)NLP界,這里我簡單記...
在做這個(gè)任務(wù)的時(shí)候是17年的9月份,當(dāng)時(shí)是在一家金融公司實(shí)習(xí)做基于大量金融數(shù)據(jù)(年報(bào),研報(bào))的中文實(shí)體識(shí)別任務(wù),用的模型就是LSTM-C...