歡迎關(guān)注我的專欄( つ??ω??)つ【人工智能通識】 拉姆齊定理揭示了無序中必然出現(xiàn)有序的辯證統(tǒng)一。 拉姆齊 Frank P. Ramsey弗蘭克·拉姆齊,1903~1930...
IP屬地:江蘇
歡迎關(guān)注我的專欄( つ??ω??)つ【人工智能通識】 拉姆齊定理揭示了無序中必然出現(xiàn)有序的辯證統(tǒng)一。 拉姆齊 Frank P. Ramsey弗蘭克·拉姆齊,1903~1930...
歡迎關(guān)注我的專欄( つ??ω??)つ【人工智能通識】【匯總】2019年4月專題 信息論中的熵如何度量的? 信息熵和信息量 信息是否可以有統(tǒng)一的度量標(biāo)準(zhǔn)?當(dāng)你收到兩條不同信息的...
歡迎關(guān)注我的專欄( つ??ω??)つ【人工智能通識】 這篇我們介紹微積分弧長公式的推導(dǎo),復(fù)習(xí)微積分的概念。如何計算任意函數(shù)曲線的長度? 細(xì)分曲線 如下圖,如何計算在[a,b]...
殘差 殘差在數(shù)理統(tǒng)計中是指實際觀察值與估計值(擬合值)之間的差。在集成學(xué)習(xí)中可以通過基模型擬合殘差,使得集成的模型變得更精確;在深度學(xué)習(xí)中也有人利用layer去擬合殘差將深度...
歡迎關(guān)注我的專欄( つ??ω??)つ【人工智能通識】 微積分定理簡單說就是,微分和積分互為逆運算。人工智能通識-2019年3月專題匯總 曲線下的面積 為什么會有微積分這種折磨...
BERT 簡介 BERT是2018年google 提出來的預(yù)訓(xùn)練的語言模型,并且它打破很多NLP領(lǐng)域的任務(wù)記錄,其提出在nlp的領(lǐng)域具有重要意義。預(yù)訓(xùn)練的(pre-train...