在IT圈混飯吃,不管你用什么編程語言、從事前端還是后端,阻塞、非阻塞、異步、同步這些概念,都需要清晰地掌握,否則,怎么與面試官談笑風(fēng)生(chui niu pi)?但是,掌握這...
在IT圈混飯吃,不管你用什么編程語言、從事前端還是后端,阻塞、非阻塞、異步、同步這些概念,都需要清晰地掌握,否則,怎么與面試官談笑風(fēng)生(chui niu pi)?但是,掌握這...
在深度學(xué)習(xí)中,RNN已經(jīng)成為標(biāo)準(zhǔn)組件,很多領(lǐng)域都要用到,LSTM則是最經(jīng)典的RNN結(jié)構(gòu)。所以面試時(shí)是必問的,最基本的面試題就是要說清楚LSTM的結(jié)構(gòu)。本文試圖對(duì)其結(jié)構(gòu)進(jìn)行淺顯...
在機(jī)器學(xué)習(xí)的面試中,數(shù)據(jù)是否需要?dú)w一化和標(biāo)準(zhǔn)化是個(gè)常見問題。之所以常見,是因?yàn)樗泻芏喟悼?,每個(gè)暗坑都可以考察應(yīng)聘者機(jī)器學(xué)習(xí)基礎(chǔ)是否扎實(shí)。 1、先說是什么,再說為什么 歸一化...
最大熵模型屬于運(yùn)用最大熵原理的多分類模型,這個(gè)模型在面試中經(jīng)常會(huì)與邏輯回歸一起問,比如,為什么說二者是類似的?要解答這個(gè)問題,需要對(duì)兩個(gè)模型的原理都有清晰的理解,很多面試者雖...
邏輯回歸作為被廣泛使用的二分類模型,面試中自然是不可缺少的。但要深刻理解邏輯回歸又不是那么容易的,比如說,邏輯回歸輸出的值是0到1之間的值,這個(gè)值是真實(shí)的概率嗎?邏輯回歸為什...
MSE和CE是機(jī)器學(xué)習(xí)中常見的兩種損失函數(shù),在訓(xùn)練神經(jīng)網(wǎng)絡(luò)中,也經(jīng)常用到,但是如何深刻地理解二者的異同,卻不是容易輕松搞定的。本文從模擬面試的角度嘗試對(duì)這一問題作出解讀。 精...
word2vector已經(jīng)成為NLP領(lǐng)域的基石算法。作為一名AI 從業(yè)者,如果不能主動(dòng)去熟悉該算法,應(yīng)該感到臉紅。本文是一篇翻譯的文章,原文鏈接是:http://mccorm...
在上一篇文章中,我們簡述了skip gram版word2vector的基本原理,留下一個(gè)問題待解決,那就是網(wǎng)絡(luò)非常大,這將導(dǎo)致如下幾個(gè)困難:1、在上面訓(xùn)練梯度下降會(huì)比較慢;2...
上篇文章中,我們介紹了SVM的基本思想,并將其推導(dǎo)成了一個(gè)數(shù)學(xué)問題,今天的任務(wù),就是解決如何求解這個(gè)數(shù)學(xué)問題,同時(shí),回答上篇文章中提出的第二個(gè)問題: 如果將正負(fù)樣本分開的超平...