語(yǔ)言模型筆記

參考n-gram:

https://blog.csdn.net/songbinxu/article/details/80209197

(n-gram、NNLM、RNNLM、word2vec)

本篇講述語(yǔ)言模型及重要的幾個(gè)概念,nlp基礎(chǔ)補(bǔ)一下。

語(yǔ)言模型概念

LM(language model)

語(yǔ)言模型用來(lái)判斷:是否一句話從語(yǔ)法上通順。

通過(guò)概率來(lái)判斷


鏈?zhǔn)椒▌tCHAIN RULE

聯(lián)合概率通過(guò)條件概率和邊緣概率來(lái)表達(dá)


馬爾科夫假設(shè)

Markov Assumption

是什么?


一件事情發(fā)生僅與最近的幾次相關(guān)性大

為什么要用?

一個(gè)這么長(zhǎng)的句子出現(xiàn)的次數(shù)肯定很少,導(dǎo)致概率稀疏性,也就是0.

也就是右邊句子很長(zhǎng),概率大部分都是0.


解決:





最大似然估計(jì)

上面的p概率怎么計(jì)算?就是用MLE。


語(yǔ)言模型--unigram


語(yǔ)言模型--Bigram


語(yǔ)言模型--N-gram


unigram:Estimating Probability





評(píng)估語(yǔ)言模型

不依賴任何任務(wù)、場(chǎng)景





語(yǔ)言模型修正:平滑





語(yǔ)言模型修正:插值



?著作權(quán)歸作者所有,轉(zhuǎn)載或內(nèi)容合作請(qǐng)聯(lián)系作者
【社區(qū)內(nèi)容提示】社區(qū)部分內(nèi)容疑似由AI輔助生成,瀏覽時(shí)請(qǐng)結(jié)合常識(shí)與多方信息審慎甄別。
平臺(tái)聲明:文章內(nèi)容(如有圖片或視頻亦包括在內(nèi))由作者上傳并發(fā)布,文章內(nèi)容僅代表作者本人觀點(diǎn),簡(jiǎn)書系信息發(fā)布平臺(tái),僅提供信息存儲(chǔ)服務(wù)。

相關(guān)閱讀更多精彩內(nèi)容

  • Language Model 語(yǔ)言模型用來(lái)判斷:是否一句話從語(yǔ)法上通順 LM—Obgective(目標(biāo)=) : C...
    在努力的Jie閱讀 2,747評(píng)論 0 2
  • N-Gram(有時(shí)也稱為N元模型)是自然語(yǔ)言處理中一個(gè)非常重要的概念,通常在NLP中,人們基于一定的語(yǔ)料庫(kù),可以利...
    x00c閱讀 39,479評(píng)論 4 16
  • 前面的文章主要從理論的角度介紹了自然語(yǔ)言人機(jī)對(duì)話系統(tǒng)所可能涉及到的多個(gè)領(lǐng)域的經(jīng)典模型和基礎(chǔ)知識(shí)。這篇文章,甚至之后...
    我偏笑_NSNirvana閱讀 14,431評(píng)論 2 64
  • 早在小學(xué)時(shí)我們就學(xué)過(guò)名詞、動(dòng)詞、形容詞和副詞之間的差異。這些“詞類”不是閑置的文法家的發(fā)明,而是對(duì)許多語(yǔ)言處理任務(wù)...
    DataArk閱讀 8,215評(píng)論 0 10
  • 周三的這天,對(duì)于一個(gè)27歲的年輕女孩,這一天或許正坐于公司的某一角落,忙著公司領(lǐng)導(dǎo)交代的某一事情,或許是正抱...
    林思儀閱讀 220評(píng)論 0 0

友情鏈接更多精彩內(nèi)容