Multi-hop Reading Comprehension through Question Decomposition and Rescoring
本篇論文關注的焦點在于多跳問答問題中,對于問題的拆分,在本文中,作者對問題的處理方法是將其分為多個子問題,其中這每個子問題通過一個單跳的閱讀理解模型去解決回答問題,最后再將他們合并。將問題拆分作者使用的是對原問題進行跨度分割,根據(jù)問題的類型不同進行不同的處理,最后通過一個加權得到最后答案。

作者提出了DECOMPRC,這是一種用于多跳RC的系統(tǒng),它將多跳問題分解為更簡單的單跳子問題。 我們將子問題生成作為跨度預測問題,將模型訓練在400個帶標簽的示例上可以生成高質量的子問題。 此外,DECOMPRC從分解評分步驟中獲得了更多收益。 DECOMPRC在HOTPOTQA干擾項設置和完整的Wiki設置方面達到了最先進的水平,同時以子問題的形式為其決策提供了可解釋的證據(jù),并且在對抗性設置方面比強大的基線更強大。
The Web as a Knowledge-base for Answering Complex Questions
回答復雜的問題對于人類來說是一項耗時的活動,需要推理和信息整合。最近在閱讀理解方面的工作在回答簡單問題方面取得了進展,但是解決復雜問題仍然是持續(xù)的研究挑戰(zhàn)。相反,語義解析器已經成功地處理了組合性,但前提是該信息位于目標知識庫中。在本文中,作者提出了一個新穎的框架,用于回答廣泛和復雜的問題,假設使用搜索引擎和閱讀理解模型可以回答簡單的問題。我們建議將復雜的問題分解為一系列簡單的問題,并從一系列答案中計算出最終答案

在本文中,作者提出了一個基于問題分解和與Web交互的新框架,用于回答復雜問題。 作者在此框架下開發(fā)了一個模型,并證明了該模型可以提高兩個數(shù)據(jù)集上的復雜QA性能,并使用兩個RC模型。 我們還發(fā)布了一個新的數(shù)據(jù)集COMPLEXWEBQUESTIONS,其中包括問題,SPARQL程序,答案和作者的模型收集的Web片段。 作者認為,該數(shù)據(jù)集將為質量保證和語義解析社區(qū)提供服務,推動對組成性的研究,并推動社區(qū)為質量保證提供整體解決方案。 在以后的工作中,作者計劃對模型進行訓練,直接從薄弱的監(jiān)管(即表示法)中提取信息,并不僅要從網絡中提取信息,還要從結構化信息源(例如網絡表格和知識庫)中提取信息。
Complex Question Decomposition for Semantic Parsing
在這項工作中,作者專注于復雜問題的語義解析,并提出了一種新穎的層次語義解析(HSP)方法,該方法利用復雜問題的分解性進行語義解析。 作者的模型是基于分解-集成的思想在三階段的解析體系結構中設計的。 在第一階段,提出了一個問題分解器,它將一個復雜的問題分解為一系列子問題。 在第二階段,設計了一個信息提取器來導出這些問題的類型和謂詞信息。 在最后一個階段,將先前階段生成的信息進行整合,并為復雜問題生成邏輯形式。 最后對復雜的語義復雜數(shù)據(jù)集COMPLEXWEBQUESTIONS進行了實驗,結果表明,與最新方法相比,該模型取得了顯著改進。

在這項工作中,作者提出了一種基于序列到序列范式的新穎的分層語義解析(HSP)模型。 實驗表明,與以前的幾個系統(tǒng)相比,HSP有效地提高了性能。 作者還設計了一種神經生成問題分解器,該分解器比基于拆分的問題分解方法具有更高的性能。 進一步的實驗還證明,提出的神經生成問題分解器也受益于HSP機制
Answering complicated question intents expressed in decomposed question sequences
用于回答問題的語義解析的最新工作集中在冗長而復雜的問題上,如果在兩個人之間的正常對話中提出問題,其中許多問題似乎是不自然的。 為了探索對話式質量檢查環(huán)境,我們提出了一個更為現(xiàn)實的任務:回答一系列簡單但相互關聯(lián)的問題。 作者從Wikipedia收集了6,066個問題序列的數(shù)據(jù)集,這些問題序列查詢了半結構化表格,總共有17,553個問題-答案對。 現(xiàn)有的QA系統(tǒng)在作者的數(shù)據(jù)集上進行評估時面臨兩個主要問題:(1)處理包含對先前問題或答案的共同引用的問題,以及(2)將問題中的單詞或短語與關聯(lián)表中的對應條目進行匹配。

作者提出了這樣一個數(shù)據(jù)集,其中的問題是簡單問題但是是有內在關聯(lián)的,這樣的數(shù)據(jù)集轉向了一種更具對話性的多回合方案,在這種方案中,系統(tǒng)必須依靠先前的上下文來回答用戶當前的問題。 為此,作者引入了SQA,該數(shù)據(jù)集由6,066個有關Wikipedia表的相互關聯(lián)的問題的唯一序列組成,總共有17,553個問題-答案對。 據(jù)我們所知,SQA是第一個處理順序問題解答的語義分析數(shù)據(jù)集,這是信息訪問的更自然的界面
Multi-Passage Machine Reading Comprehension with Cross-Passage Answer Verification
實際Web數(shù)據(jù)上的機器閱讀理解(MRC)通常要求機器通過分析搜索引擎檢索到的多個段落來回答問題。 與單通道的MRC相比,多通道的MRC更具挑戰(zhàn)性,因為我們很可能會從不同的通道中獲得多個令人困惑的答案候選者。 為了解決這個問題,我們提出了一種端到端的神經模型,該模型可使那些來自不同段落的答案候選者根據(jù)其內容表示來相互驗證。 具體來說,我們聯(lián)合訓練三個模塊,這些模塊可以基于三個因素來預測最終答案:答案邊界,答案內容和跨通道答案驗證。 實驗結果表明,我們的方法在很大程度上優(yōu)于基線,并且在英語MS-MARCO數(shù)據(jù)集和中文DuReader數(shù)據(jù)集上均達到了最先進的性能,這兩種數(shù)據(jù)集都是為實際環(huán)境中的MRC設計的 。

在本文中,我們提出了一個端到端的框架來解決多通道MRC任務。 我們在模型中創(chuàng)造性地設計了三個不同的模塊,它們可以找到答案邊界,對答案內容進行建模并進行跨通道答案驗證。 可以使用不同形式的答案標簽來訓練所有這三個模塊,并且一起訓練它們可以提供進一步的改進。 實驗結果表明,我們的模型在很大程度上優(yōu)于基線模型,并且在兩個具有挑戰(zhàn)性的數(shù)據(jù)集上均達到了最新的性能,這兩個數(shù)據(jù)集都是為在實際Web數(shù)據(jù)上的MRC設計的。
Generative Question Answering: Learning to Answer the Whole Question
判別式問答模型可能過度適合數(shù)據(jù)集中的表面偏見,因為當任何線索使答案成為可能時,它們的損失函數(shù)就會飽和。 我們介紹了問題和答案的聯(lián)合分布的生成模型,這些模型經過訓練可以解釋整個問題,而不僅僅是回答它。 我們的問題回答(QA)模型是通過學習先驗答案和條件語言模型來實現(xiàn)的,該條件語言模型根據(jù)給定的答案來生成問題-在逐字生成問題時允許進行可擴展且可解釋的多跳推理。 我們的模型通過在SQUAD和CLEVR基準測試中具有可比性的判別模型而獲得了具有競爭力的性能,這表明與以前的工作相比,它是用于語言理解和推理的更通用的體系結構。 該模型極大地提高了從有偏見的訓練數(shù)據(jù)到對抗測試數(shù)據(jù)的通用性,從而在ADVERSARIALSQUAD上獲得了最新的結果

本文提出基于生成模型架構的機器閱讀模型,其優(yōu)化的目標是:給定context,最大化question和answer的聯(lián)合概率,用概率表示為p(a,q|c)。該概率可以分解為p(a|c)p(q|a,c)。對于這兩部分,分別訓練兩個模型,最后在預測時,遍歷所有候選的answer選出最大化聯(lián)合概率p(a,q|c)的answer作為預測結果。
TEQUILA: Temporal Question Answering over Knowledge Bases
基于知識庫的問題解答(KB-QA)在處理需要分解為子問題的復雜問題時提出了挑戰(zhàn)。 這里要解決的一個重要案例是時間問題,需要發(fā)現(xiàn)和處理時間關系的線索。 我們提出TEQUILA,這是一種可以在任何KB-QA引擎之上運行的時間QA的使能方法。 TEQUILA有四個階段。 它檢測問題是否具有時間意圖。 它分解問題并將其重寫為非時間子問題和時間約束。 然后,從基礎KB-QA引擎檢索對子問題的答案。 最后,TEQUILA在時間間隔上使用約束推理來計算完整問題的最終答案。 與最先進的基準進行比較顯示了我們方法的可行性。


TEQUILA將復合時間問題分解為一個或多個非時間子問題(返回候選答案)和一個或多個時間子問題(返回時間約束)。子問題的結果通過相交的答案相結合。 將約束應用于與非時間子問題的結果相關的時間范圍。 作者使用從第一原理設計的一組詞匯語法規(guī)則來分解問題并將其重寫為其組成部分
理解復雜問題的組成語義是質量檢查的一個公開挑戰(zhàn)。 我們專注于暫時性問題解答(KB),這是應付重要信息需求的重要步驟。 我們的方法在最近的基準測試中表現(xiàn)出了提高的性能,并且在一般復雜問題上的表現(xiàn)優(yōu)于最新的基準。 我們的工作強調了構建可重復使用的模塊的價值,這些模塊可改進多個KB-QA系統(tǒng)