【讀論文】Unseen Entity Handling in Complex Question Answering over Knowledge Base via Language Genera...

發(fā)表會(huì)議:EMNLP 2021 Finding
研究領(lǐng)域:KBQA-SPARQL生成
作者團(tuán)隊(duì):A*STAR, Singapore (新加坡科技研究局)
代碼倉(cāng)庫(kù):未開源

論文簡(jiǎn)介

現(xiàn)有的KBQA方法,將SPARQL簡(jiǎn)化為一個(gè)list或者一個(gè)graph,缺失了"filter"和"order_by"限制,生成簡(jiǎn)化后的形式。
本文直接使用大規(guī)模的預(yù)訓(xùn)練模型生成可執(zhí)行的未簡(jiǎn)化的完整的SPARQL,
最終取得了更好的效果,并且具有更好的可解釋性和更高的計(jì)算效率。

主要思路

將Complex KBQA任務(wù)轉(zhuǎn)化為一個(gè)language generation任務(wù),使用預(yù)訓(xùn)練的encoder-decoder模型直接生成SPARQL。
這種方法的問(wèn)題是:如何生成unseen的實(shí)體?
在SPARQL中,實(shí)體由ID表示(e.g. 'ns:m.08x9_6'),無(wú)法由模型直接生成。
本文采用自然語(yǔ)言模型生成實(shí)體的text label,從而在預(yù)測(cè)階段生成unseen的實(shí)體。
具體地,本文使用一個(gè)變量(例如'c1')再加filter來(lái)表示實(shí)體(例如' filter(str(?c1) = “1980 NBA Finals”)')

本文方法的優(yōu)勢(shì)

  1. 使用生成模型一次可以生成整個(gè)sparql,而非像迭代式的graph generation方法,一次只能生成一條邊或者一個(gè)action
  2. sequence generation的方法可解釋性更好 (?存疑)
  3. 可以使用大規(guī)模預(yù)訓(xùn)練模型
  4. 模型可以學(xué)習(xí)生成constraints

具體方法

  • 首先使用Freebase API 識(shí)別句子中的實(shí)體,選擇一個(gè)作為topic entity,另一個(gè)作為限制(預(yù)處理)
  • 然后使用encoder-decoder模型生成一個(gè)SPARQL列表
  • 最后選擇最好的可執(zhí)行的SPARQL(后處理)

實(shí)驗(yàn)結(jié)果

三個(gè)數(shù)據(jù)集:
MetaQA
WebQSP
CWQ

主實(shí)驗(yàn)結(jié)果

總體效果不錯(cuò),Beam size取到了100


不同類型的問(wèn)題結(jié)果分析

  • 1跳,2跳
  • 無(wú)約束,有約束
  • filter約束,order_by約束

消融分析

  • 生成原SPARQL(實(shí)體以ID形式生成)
  • 不添加Topic Entity的type
  • 添加Topic Entity的label
  • 同時(shí)添加Topic Entity的type和label

總結(jié)

本文主要提出了一種用Encoder-Decoder模型生成SPARQL的方法,在2021年算是不錯(cuò)的嘗試。
放到現(xiàn)在(2022年),這種方法已經(jīng)被廣泛采用了,如何在Seq2Seq的范式下對(duì)現(xiàn)有問(wèn)題進(jìn)行優(yōu)化是一個(gè)值得思考的問(wèn)題。

最后編輯于
?著作權(quán)歸作者所有,轉(zhuǎn)載或內(nèi)容合作請(qǐng)聯(lián)系作者
【社區(qū)內(nèi)容提示】社區(qū)部分內(nèi)容疑似由AI輔助生成,瀏覽時(shí)請(qǐng)結(jié)合常識(shí)與多方信息審慎甄別。
平臺(tái)聲明:文章內(nèi)容(如有圖片或視頻亦包括在內(nèi))由作者上傳并發(fā)布,文章內(nèi)容僅代表作者本人觀點(diǎn),簡(jiǎn)書系信息發(fā)布平臺(tái),僅提供信息存儲(chǔ)服務(wù)。

相關(guān)閱讀更多精彩內(nèi)容

友情鏈接更多精彩內(nèi)容