論文筆記 | Cache Method in n-gram

前言

本篇簡略介紹一下 (Kuhn, 1988)[1] 和 (Kuhn, De Mori, 1990)[2] 中的主要思想,即在 n-gram 基礎(chǔ)的馬爾科夫模型中引入 cache 機制的方法。作為討論后續(xù)使用神經(jīng)網(wǎng)絡(luò)方法引入連續(xù) cache 的序列模型的鋪墊。

思想

為序列模型引入 cache 是基于這樣的假設(shè):近期使用的單詞,出現(xiàn)頻率比全局更高。這是一個受語言學(xué)啟發(fā)的假設(shè)。

原語言模型基于 n-gram ,論文中提出的模型為其增加了 cache 部分。以 Part-of-Speech (POS) 作為線索,改進語言模型。這是基于另一個假設(shè):一個內(nèi)容詞(a content word),比如特定的名詞或動詞,傾向于集中出現(xiàn);而功能詞(function words),傾向于平均分布。

模型的核心可以用以下公式概括:

P(W_i = W | g_i = g_j) \approx k_{M, j} \times f(W_i = W | g_i = g_j) + k_{C, j} \times C_j(W, i)

各項含義如下:

  • W_i = W 即第 i 個位置上的單詞是 W
  • g_i = g_j 即第 i 個位置上的 POS 是 g_j
  • k_{M, j} + k_{C, j} = 1 ,兩項分別代表全局 Markov 模型部分概率權(quán)重和 cache 部分概率權(quán)重。注意到不同的 POS 對應(yīng)不同的權(quán)重分配。
  • f(W_i = W | g_i = g_j) 為全局 Markov 模型,這里使用的是 3g-gram 。
  • C_j(W, i) 為從第 j 個 POS 對應(yīng)的 cache 中所得到第 i 個位置單詞為 W 的概率,代表了語境信息。

進行序列預(yù)測時,每個 POS 維護一個 LRU 的 cache 儲存一定量的單詞。對于第 i 個位置,預(yù)測其為單詞 W 的概率由前兩個位置的 POS 產(chǎn)生各種 POS 的概率,乘以由上面公式計算出不同 POS 生成該單詞的概率得到。

以上部分,略去了 trigram 預(yù)測 POS 的模型以及對 out-of-vocabulary 單詞的處理。具體可見論文。

結(jié)果

實驗證明了 cache 的有效性,并為內(nèi)容詞與功能詞的語言學(xué)假設(shè)提供了實驗支持。實驗發(fā)現(xiàn)[2],功能詞全局部分比重較大,而內(nèi)容詞 cache 部分與全局部分比重相當(dāng)。

評論

對語境信息建模的方式很多,直接用 cache 儲存起來算是很直接的想法。這篇論文[3]將 Kuhn 兩篇中的思想改成了連續(xù)版本,依然保留了無需訓(xùn)練的優(yōu)點。也許有的時候模型偏置(model bias)不需要對處理的過程太過干預(yù),能為其提供獲得想要信息的方法就好。


  1. Kuhn, R. (1988). Speech recognition and the frequency of recently used words: A modified markov model for natural language. Proceedings of the 12th conference on Computational linguistics-Volume 1, Association for Computational Linguistics. ?

  2. Kuhn, R. and R. De Mori (1990). "A cache-based natural language model for speech recognition." IEEE transactions on pattern analysis and machine intelligence 12(6): 570-583. ? ?

  3. Grave, E., et al. (2016). "Improving neural language models with a continuous cache." arXiv preprint arXiv:1612.04426. ?

?著作權(quán)歸作者所有,轉(zhuǎn)載或內(nèi)容合作請聯(lián)系作者
【社區(qū)內(nèi)容提示】社區(qū)部分內(nèi)容疑似由AI輔助生成,瀏覽時請結(jié)合常識與多方信息審慎甄別。
平臺聲明:文章內(nèi)容(如有圖片或視頻亦包括在內(nèi))由作者上傳并發(fā)布,文章內(nèi)容僅代表作者本人觀點,簡書系信息發(fā)布平臺,僅提供信息存儲服務(wù)。

相關(guān)閱讀更多精彩內(nèi)容

  • References: 《speech and language processing 》2nd & 3rd 《統(tǒng)...
    藝術(shù)叔閱讀 7,948評論 1 8
  • 1.NLP當(dāng)前熱點方向 詞法/句法分析 詞嵌入(word embedding) 命名實體識別(Name Entit...
    __Aragorn閱讀 6,303評論 1 9
  • 前面的文章主要從理論的角度介紹了自然語言人機對話系統(tǒng)所可能涉及到的多個領(lǐng)域的經(jīng)典模型和基礎(chǔ)知識。這篇文章,甚至之后...
    我偏笑_NSNirvana閱讀 14,402評論 2 64
  • 這幾年一直在家門口的美容院做保養(yǎng),前后也做了幾個項目,花了些錢,有的有效果,有的沒什么反應(yīng),然后人也變得現(xiàn)實起來了...
    舒瀾小筑閱讀 238評論 0 0
  • 那天在朋友圈看到一個朋友發(fā)的內(nèi)容“沒有夢想的人和咸魚有什么區(qū)別”看到的那一刻我很不解,為什么沒有夢想的人和咸魚沒區(qū)...
    余清閱讀 829評論 1 0

友情鏈接更多精彩內(nèi)容