語義相似計算資料

文章

LDA

DSSM

SimNet

CLSM

CNN

評測比賽

工具

PPT

論文

Convolutional Neural Networks for Sentence Classification (EMNLP 2014)

n*k表示句子(k是詞向量維度) -> 多channel卷積層 -> max-over-time pooling -> 全連接

Neural Machine Translation by Jointly Learning to Align and Translate (arxiv 2014, ICLR 2015)

最早的一篇,應用在翻譯上,動機是告訴decoder現(xiàn)在翻譯哪一部分,因為大體上兩個句子語義上有對應關系 soft alignment?

采用biRNN

Encoding Source Language with Convolutional Neural Network for Machine Translation (ACL 2015)

tagCNN & inCNN

A Hierarchical Neural Autoencoder for Paragraphs and Documents (ACL 2015) note!!

LSTM auto-encoder + Attention

分層結構,捕捉句子組成成分或結構

中間層有句子狀態(tài)表示,句子向量?

A Neural Attention Model for Abstractive Sentence Summarization (EMNLP 2015)
Abstractive Sentence Summarization with Attentive Recurrent Neural Networks (NAACL 2016)

姊妹篇, Facebook團隊

兩篇paper的模型框架都是seq2seq+attention,最大的區(qū)別在于選擇encoder和decoder的模型,第一篇的模型偏容易一些,第二篇用了rnn來做。論文解讀

Teaching Machines to Read and Comprehend (NIPS 2015)

Google DeepMind團隊

有監(jiān)督訓練,兩個attention模型: Attentive Reader 和 Impatient Reader,后者每個token都和query構成一組輸入,相當于反復讀取,逐漸理解文章

Skip-Thought Vectors(NIPS 2015) note!!

無監(jiān)督,句子encoder

通過1萬多本書中連續(xù)的句子來訓練

借鑒了word2vec中skip-gram模型,通過一句話來預測這句話的上一句和下一句

采用了GRU-RNN作為encoder和decoder,encoder部分的最后一個詞的hidden state作為decoder的輸入來生成詞。這里用的是最簡單的網絡結構,并沒有考慮復雜的多層網絡、雙向網絡等提升效果。decoder部分也只是一個考慮了encoder last hidden state的語言模型,并無其他特殊之處,只是有兩個decoder,是一個one maps two的情況,但計算方法一樣。論文解讀

Deep Learning for Semantic Similarity(實驗報告 2015)

有監(jiān)督,衡量兩個句子的相似性

實驗數(shù)據(jù):SemEval-2015 Task 2, RNN效果最好

Learning Natural Language Inference using Bidirectional LSTM model and Inner-Attention

Context Aware Document Embedding (arxiv 2017)

CNN+GRU STS任務上取得與doc2vec相似的效果,但是更有效率,不需要大量外部語料?一種加強的idf權重,可以捕捉文檔子主題層的關鍵詞

A Structured Self-attentive Sentence Embedding (ICLR 2017) note!!

雙向LSTM+Attention

三個實驗:預測年齡,情感分析,文本蘊含

提出了一種句子表示學習的”internal attention”的方式,并且采用了懲罰項來保證從不同方面來學習attention矩陣,使每個維度的attention向量的相關性降低,并采用了可視化方式來說明模型效果, 可以應用到各種序列化學習的問題當中。論文解讀

[Efficient Summarization with Read-Again and Copy Mechanism] (arxiv 2016, ICLR 2017)

生成式摘要任務 論文解讀

兩個問題:

  • 一是在encoder的過程中在計算每一個詞的向量表示或者隱層狀態(tài)時僅僅考慮了該詞之前的一些詞,導致了次優(yōu)化
  • 二是UNK的問題(就是不在詞表范圍的詞)

兩個改進:

  • 首先提出一個read-again機制,就是在encoder計算每一個詞的表示之前先閱讀一遍輸入序列,該想法的出發(fā)點也符合人的大腦機制,在閱讀一篇文章時,要讀完一遍才能去確認文中哪些詞是重點。
  • 采用copy機制來處理OOV問題,同時可以使用非常小的詞庫,提高了解碼的效率。

Learning Natural Language Inference using Bidirectional LSTM model and Inner-Attention (arxiv 2016)

有監(jiān)督,識別文本蘊含,biLSTM average pooling, Inner-Attention
論文解讀

最后編輯于
?著作權歸作者所有,轉載或內容合作請聯(lián)系作者
【社區(qū)內容提示】社區(qū)部分內容疑似由AI輔助生成,瀏覽時請結合常識與多方信息審慎甄別。
平臺聲明:文章內容(如有圖片或視頻亦包括在內)由作者上傳并發(fā)布,文章內容僅代表作者本人觀點,簡書系信息發(fā)布平臺,僅提供信息存儲服務。

相關閱讀更多精彩內容

  • 陽光撒了一地 時間驚擾了 靜謐的湖水 在小屋中 書一行字 讀幾頁書 咖啡有些苦澀 放點糖 別太多 中庸就好 是苦...
    詩歌劉振揚閱讀 158評論 0 3
  • 回家看到了兩個妹妹給爸媽買的按摩椅和足療機。媽媽讓我趕緊體驗一下足療,十五分鐘。又讓我去按摩兩個回合...
    心有佳期閱讀 331評論 0 0
  • 北京,即使漂泊不定,也可安放青春。 最近,面臨就業(yè)的問題大家都議論紛紛,我想每個人都有自己的追求,都有自己的生活。...
    番桃閱讀 393評論 0 0
  • 云付
    be23ed185a7b閱讀 78評論 0 0

友情鏈接更多精彩內容