安裝:conda install jupyter notebook配置:1、設(shè)置登錄密碼pythonfrom notebook.auth import passwdpassw...
安裝:conda install jupyter notebook配置:1、設(shè)置登錄密碼pythonfrom notebook.auth import passwdpassw...
問題:Jupyter設(shè)置密碼后,Web登陸提示密碼無效 問題原因: 注意觀察提示,密碼無效是因為jupyter_notebook_config.json文件和jupyter_...
whl文件下載地址 https://pypi.org/project/tensorflow-gpu/1.10.0/#files 類比修改鏈接即可:比如下載CPU版本的http...
對于二分類 一般我們說,對某個類別的precision、Recall、F1,二分類,默認(rèn)是對正例的。 對于多分類 假設(shè)有三分類[1,2,3],那么有P1,R1,F(xiàn)1和P2,R...
伯努利分布 隨機(jī)變量X的概率質(zhì)量函數(shù): 重復(fù)n次伯努利實驗,成功次數(shù)是x,失敗次數(shù)是n-x的概率為: 當(dāng)n=1時,即是伯努利分布。所以伯努利分布的概率質(zhì)量函數(shù)也表示為: x代...
信息熵 信息熵也被稱為熵,用來表示所有信息量的期望。 其中X是一個離散型隨機(jī)變量。 相對熵 相對熵即KL散度。如果隨機(jī)變量X有兩個單獨的概率分布P(x)和Q(x),用KL散度...
《Transformer-XL: Attentive Language Models Beyond a Fixed-Length Context》 1.Transformer...
內(nèi)容摘自https://zhuanlan.zhihu.com/p/54743941 1.NLP四大任務(wù) 2.RNN 2.1 RNN為什么在NLP流行并占據(jù)主導(dǎo)地位呢? 1、適...
深度學(xué)習(xí)中的ICS問題? covariate shift 是分布不一致假設(shè)之下的一個分支問題,它是指源空間和目標(biāo)空間的條件概率是一致的,但是其邊緣概率不同。而統(tǒng)計機(jī)器學(xué)習(xí)中的...
1.AutoEncoder自編碼網(wǎng)絡(luò) 2.StackAutoEncoder堆棧自編碼網(wǎng)絡(luò) 兩階段: 1、無監(jiān)督逐層貪婪預(yù)訓(xùn)練,layer-wise unsuperwised ...
Learning Phrase Representations using RNN Encoder–Decoder for Statistical Machine Trans...
2001 - 神經(jīng)語言模型 第一個神經(jīng)語言模型是Bengio等人在2001年提出的前饋神經(jīng)網(wǎng)絡(luò),如圖所示: 2008- 多任務(wù)學(xué)習(xí) 多任務(wù)學(xué)習(xí)鼓勵模型學(xué)習(xí)對許多任務(wù)有用的表述...
自Attention機(jī)制提出后,加入attention的Seq2seq模型在各個任務(wù)上都有了提升,所以現(xiàn)在的seq2seq模型指的都是結(jié)合rnn和attention的模型。 ...
jieba分詞用到了DAG分詞法。在此介紹其原理: 第一步:分句 通過正則表達(dá)式,將文章內(nèi)容切分,形成一個句子數(shù)組,這個比較好理解 第二步:構(gòu)建DAG詞圖 下述程序其實是找以...