數據預處理部分和上一篇一樣,就不啰嗦了。重點看一下模型構造:1. Attention層:核心在于對encoder端隱層權重進行計算 比如我們準備...
1.加載數據 2.查看數據 3.數據預處理 3.1 構造字典 3.2 增加特殊字符 3.3 word和id之間的映射表 3.4 text 轉換成...
決策樹 純度和信息熵:決策樹構造的過程就是為尋找純凈劃分的過程,數學上的解釋,就是讓目標變量分歧最小。比如有3個集合:集合1有6次去打球;集合2...
tf.nn.embedding_lookup的作用就是找到要尋找的embedding data中的對應的行下的vector。 +CRF 用F1值...
對于序列標注來講,普通CNN有一個劣勢,就是卷積之后,末層神經元可能只是得到了原始輸入數據中一小塊的信息。而對NER來講,整個句子的每個字都有可...
用的是kaggle上的比賽“Quora Question Paris: Can you identify question pairs that...
兩個句子從一開始就交互,這樣就會獲得更準確的關系。圖中可以將單詞與單詞之間的相似度看成是像素,那么對于兩個單詞數為M,N的句子,其相似度矩陣就是...
先看看seq2seq原理: encoder通過學習將輸入embedding后傳入rnn網絡形成一個固定大小的狀態(tài)向量S,并將S傳給Decoder...
比較:其 [aˉi,βi][aˉi,βi] 就是把兩部分concat起來(句子中第 i 個詞, 和另一個句子里所有詞與它比較的加權詞向量) im...