因為datetime計算時間差,只有 seconds, days,沒有hours,于是,我就利用 seconds / 3600,來計算hours,但是出現(xiàn)了錯誤的結(jié)果 dat...
因為datetime計算時間差,只有 seconds, days,沒有hours,于是,我就利用 seconds / 3600,來計算hours,但是出現(xiàn)了錯誤的結(jié)果 dat...
在 SVM 白板推導(dǎo)| 由最大間隔化目標(biāo)演化的損失函數(shù)推導(dǎo)過程 中白板手推了 SVM 的原理,并介紹了硬間隔核函數(shù)的實現(xiàn)原理及公式推導(dǎo),這一節(jié)我來詳細介紹下 SVM 中的 K...
PLA 從線性可分到線性不可分,有 3 種不同的形態(tài)。 線性可分:PLA 一點點錯誤:Pocket Algorithm 嚴格非線性: + PLA 接下來,詳細解釋下,這三種模...
經(jīng)常聽身邊的一些朋友感嘆 “抖音有毒”,一刷就是幾個小時,可想而知它的用戶黏性有多強。 抖音的算法極具魅力,這個魅力在于,抖音的流量分配是去中心化的。 在公眾號上,如果你的粉...
1. 在洋蔥閱讀課中,有一位中國臺灣地區(qū)的學(xué)員問了我一個問題: 我的領(lǐng)導(dǎo)比我多50歲左右,常常溝通不良,她跟我說我不能總是好好好,知道了,但是我其實有時候聽不懂有時候會錯意。...
一、為什么需要 Mask? 在此,先思考一個問題,為什么需要 mask? 在 NLP 中,一個最常見的問題便是輸入序列長度不等,通常需要進行 PAD 操作,通常在較短的序列后...
01 深層網(wǎng)絡(luò)診斷越深越好嗎? 深度學(xué)習(xí)的概念源于人工神經(jīng)網(wǎng)絡(luò),而之所以叫深度學(xué)習(xí)。我認為有 2 點,第一是網(wǎng)絡(luò)很深,非常深,第二是學(xué)習(xí),如何學(xué)習(xí)呢?通過數(shù)學(xué)建模,不斷調(diào)整參...
一、初學(xué)者容易踩的 5 個深坑 1 心態(tài)易受學(xué)習(xí)狀態(tài)的影響 初學(xué)者容易踩的第一個深坑就是心態(tài)不好。 有的人過于自信,多自己的學(xué)習(xí)能力深信不疑。但是當(dāng)遇到非常困難的算法或者推理...
Attention 機制由 Bengio 團隊于 2014 年提出,并廣泛應(yīng)用在深度學(xué)習(xí)的各個領(lǐng)域。而 Google 提出的用于生成詞向量的 Bert 在 NLP 的 11 ...
在「拆 Transformer 系列一:Encoder-Decoder 模型架構(gòu)詳解」中有簡單介紹 Attention,Self-Attention 以及 Multi-Hea...
人工智能的發(fā)展非常迅速,翻譯的準(zhǔn)確性越來越高,以至于有人擔(dān)心譯員是否會失業(yè),甚至有的家長擔(dān)心孩子學(xué)習(xí)外語專業(yè)將來找不到工作。哎呀,扯遠了,本人認為:機器翻譯可以便于人們更好的...