【lhy人類自然語言處理筆記】25 Muliti-lingual BERT

25 Muliti-lingual BERT

image.png
image.png
image.png

Multi-BERT最神奇的是訓(xùn)練一種模型上,用另一種語料去測試效果還可以


image.png
image.png

Google設(shè)計的一個benchmark設(shè)計模型跨語言的能力

image.png

為什么cross-lingual可以work?

mbert may be能夠?qū)W習(xí)到語義方面的東西

BERT +大量的語料可以做好不同語言的align

image.png

第一種方式是code switching,就是中英文混交著,比如看過DNA的構(gòu)造很想螺旋體,mbert可能就會任務(wù)DNA與螺旋體是等同的

image.png

這里只用兩種語言

image.png

<u>mbert顯然知道語言的資訊</u> ,mbert訓(xùn)練的目標(biāo)就是:吃的是en那個output的也是en

image.png

發(fā)覺一下mbert語言資訊原理

image.png

里面有個想法是求得平均的差值向量

image.png

這種就有點(diǎn)想GAN的訓(xùn)練方式

image.png

mbert確實存在語義部分

image.png
image.png

加上藍(lán)色的向量(MDS)得到的效果就好些。

?著作權(quán)歸作者所有,轉(zhuǎn)載或內(nèi)容合作請聯(lián)系作者
【社區(qū)內(nèi)容提示】社區(qū)部分內(nèi)容疑似由AI輔助生成,瀏覽時請結(jié)合常識與多方信息審慎甄別。
平臺聲明:文章內(nèi)容(如有圖片或視頻亦包括在內(nèi))由作者上傳并發(fā)布,文章內(nèi)容僅代表作者本人觀點(diǎn),簡書系信息發(fā)布平臺,僅提供信息存儲服務(wù)。

相關(guān)閱讀更多精彩內(nèi)容

友情鏈接更多精彩內(nèi)容