WSDM2015概覽

Neil Zhu,簡書ID Not_GOD,University AI 創(chuàng)始人 & Chief Scientist,致力于推進世界人工智能化進程。制定并實施 UAI 中長期增長戰(zhàn)略和目標,帶領(lǐng)團隊快速成長為人工智能領(lǐng)域最專業(yè)的力量。
作為行業(yè)領(lǐng)導(dǎo)者,他和UAI一起在2014年創(chuàng)建了TASA(中國最早的人工智能社團), DL Center(深度學(xué)習(xí)知識中心全球價值網(wǎng)絡(luò)),AI growth(行業(yè)智庫培訓(xùn))等,為中國的人工智能人才建設(shè)輸送了大量的血液和養(yǎng)分。此外,他還參與或者舉辦過各類國際性的人工智能峰會和活動,產(chǎn)生了巨大的影響力,書寫了60萬字的人工智能精品技術(shù)內(nèi)容,生產(chǎn)翻譯了全球第一本深度學(xué)習(xí)入門書《神經(jīng)網(wǎng)絡(luò)與深度學(xué)習(xí)》,生產(chǎn)的內(nèi)容被大量的專業(yè)垂直公眾號和媒體轉(zhuǎn)載與連載。曾經(jīng)受邀為國內(nèi)頂尖大學(xué)制定人工智能學(xué)習(xí)規(guī)劃和教授人工智能前沿課程,均受學(xué)生和老師好評。

我愣是跟完了整個WSDM2015會議。由于這次會議聚焦在搜索和數(shù)據(jù)挖掘,跟我現(xiàn)在的工作相當(dāng)?shù)亟咏K哉麄€過程也是我各種想法的激發(fā)和完善的階段。

冬季課程的報告涉及了深度學(xué)習(xí)在自然語言處理中的應(yīng)用、自然語言處理、社交網(wǎng)絡(luò)分析和大規(guī)模機器學(xué)習(xí)。

我比較熟悉的是話題模型、word2vec、community detection和基本的機器學(xué)習(xí)技術(shù)。所以在聽報告的過程中,關(guān)于這個方向的我會嘗試與真實的場景發(fā)生關(guān)聯(lián)。事實上,這些嘗試我在之前的工作中已經(jīng)或多或少的應(yīng)用了。然而這次報告中關(guān)于社會網(wǎng)絡(luò)分析的部分有一種新的建模方式,盡管可能通過概率模型來建模community已經(jīng)早就出現(xiàn),但是這么正式和嚴格的定義還是令我感到驚喜。(后來查證之后,還有若干的定義方式,以后有機會將這些系統(tǒng)地整理一遍,看看其中是不是可以找到一些本質(zhì)上關(guān)聯(lián)的特性)

關(guān)于word2vec的應(yīng)用,我們可以嘗試應(yīng)用word2vec在用戶和文檔上,將他們映射到一個潛在的語義空間上。這樣可以直接進行相關(guān)的計算。

WSDM主會的tutorial部分,我選擇了聽了其中的兩個topic。因為目前我們的場景不會產(chǎn)生過大的數(shù)據(jù),主要是業(yè)務(wù)邏輯的設(shè)計,所以選擇了動態(tài)信息檢索和實時競價這兩個。分別由Georgetown大學(xué)和UCL的教授和博士生講述。
隨后每天的Keynote都是學(xué)術(shù)界和業(yè)界的領(lǐng)軍團隊給出的,第一天是UC Berkley的Franklin,主要是在介紹spark。第二天是Facebook的Lada Adamic,給了關(guān)于社交網(wǎng)絡(luò)中得信息周期報告,這個報告多是統(tǒng)計實驗的結(jié)果。第三天則是Cornell的教授講解了Learn from user interaction。其中最后一個technique的taste最強,給出了模型,以及計算的框架。

實際上讓人最激動的是Stanford的年輕教授Jure,他以類機關(guān)槍的語速講了如何從圖論或者網(wǎng)絡(luò)科學(xué)的角度對推薦系統(tǒng)的研究,并且給出了一個實際的產(chǎn)品Pinterest。主要的思路就是構(gòu)建出一個產(chǎn)品之間的社交網(wǎng)絡(luò)(product graph)。

有未來感的報告來自google的研究員Kuma,后來的最佳paper就是這篇。Inverting a Steady-State。

星期五的workshop,我全程follow深度學(xué)習(xí)在NLP和搜索中的應(yīng)用。
又聽了一遍Jianfeng Gao博士關(guān)于DSSM的介紹。令我想起winter school上,他詳細講解公式推導(dǎo)的場景。還留了一條題。我還沒有去算。
然后是來自NYU-shanghai的Zheng Zhang教授,其報告啟發(fā)性很強,除了technique的講述,還有個人對machine intelligence的思考。
下午是華為諾亞方舟實驗室的關(guān)于Convnet的介紹。還有復(fù)旦學(xué)者關(guān)于他們對深度學(xué)習(xí)在NLP中的應(yīng)用的報告。

大腦的容量有限,肯定放不下這么多的東西,所以就盡可能地把這些信息整理了一下。這幾天下來,感覺是把大腦撐了撐,還是可以的。接下來,就是把這些想法和實際場景結(jié)合,給出一些產(chǎn)品功能的突破。

后記:
之前學(xué)過game theory的一點皮毛,所以常常會從game的角度來看這些問題。由于game theory的通用性,基本上還都是可以說清楚的?,F(xiàn)在又有學(xué)者嘗試將機器學(xué)習(xí)和game theory結(jié)合,這一點我覺得很靠譜??梢栽O(shè)計出更好的機制,讓一個game中的players都能達到某種程度的滿意。

最后編輯于
?著作權(quán)歸作者所有,轉(zhuǎn)載或內(nèi)容合作請聯(lián)系作者
【社區(qū)內(nèi)容提示】社區(qū)部分內(nèi)容疑似由AI輔助生成,瀏覽時請結(jié)合常識與多方信息審慎甄別。
平臺聲明:文章內(nèi)容(如有圖片或視頻亦包括在內(nèi))由作者上傳并發(fā)布,文章內(nèi)容僅代表作者本人觀點,簡書系信息發(fā)布平臺,僅提供信息存儲服務(wù)。

相關(guān)閱讀更多精彩內(nèi)容

友情鏈接更多精彩內(nèi)容