??給人工智能找一個能為大眾所接受的定義已經(jīng)成為了最近一個比較熱門的話題了。有些人將AI重新命名為“認(rèn)知計算”或者是“機(jī)器智能”,也有人錯誤的將AI和機(jī)器學(xué)習(xí)混為一談。這可能與AI不是一個單獨(dú)的學(xué)科有關(guān)。實際上,人工智能是一個廣泛的領(lǐng)域,從“機(jī)器人學(xué)”到“機(jī)器學(xué)習(xí)”都包括在內(nèi)。AI的終極目標(biāo)是獲得完成任務(wù)和定義的認(rèn)知功能的機(jī)器學(xué)習(xí)能力,否則它還只是在人類智力的范圍之內(nèi),他只能做人類也能夠完成的事是沒有意義的。因此,為了達(dá)到以上目標(biāo),機(jī)器必須有自我學(xué)習(xí)的能力而不是人類通過編程告訴他應(yīng)該怎么做。
??如果你有留心過的話,AI在過去的十年中已經(jīng)滲入到了多個領(lǐng)域了,從無人駕駛到語音識別等。在這個背景下,越來越多的公司甚至是家庭里面都會談?wù)摰紸I,因為AI已不再是一個遙遠(yuǎn)的未來了,而是當(dāng)今不能夠切切實實影響到每個人的科技。事實上,受歡迎的新聞報道中幾乎每天都會出現(xiàn)AI和技術(shù)巨頭,一個接一個地表達(dá)了他們重要的長期AI戰(zhàn)略。雖然有已經(jīng)很多投資者和老板都渴望了解如何在這個新的世界中獲取利益,但大多數(shù)人仍然處在在試圖搞懂AI是什么的階段中。
??鑒于AI將影響整個經(jīng)濟(jì),這些對話中的參與者代表了建立或使用AI系統(tǒng)的意圖,理解程度和經(jīng)驗程度的整體分布。因此,關(guān)于AI的討論至關(guān)重要 - 包括其中提出的問題,結(jié)論和建議 - 以數(shù)據(jù)和現(xiàn)實為基礎(chǔ),而不是推測。這是非常容易的(有時令人興奮的),以廣泛推斷出版研究結(jié)果或技術(shù)新聞公告,投機(jī)評論和思考實驗的結(jié)果的影響。
??下面是AI的六個領(lǐng)域,特別值得注意的是它們將影響未來的數(shù)字產(chǎn)品和服務(wù)。我將會描述他們是什么,為什么他們很重要,他們今天如何被使用,并且包括一些公司和研究這些技術(shù)的研究人員的清單(可能有遺漏,見諒)。
1. 加強(qiáng)學(xué)習(xí)(RL)
加強(qiáng)學(xué)習(xí)是通過人為學(xué)習(xí)新任務(wù)的方式而啟發(fā)的反復(fù)學(xué)習(xí)的范例。在一個典型的RL 設(shè)置中,代理的任務(wù)是在數(shù)字環(huán)境中觀察其當(dāng)前狀態(tài),并采取行動來最大限度地增加其已設(shè)置的長期獎勵。代理人從每個行動的結(jié)果收到來自環(huán)境的反饋意見,以便知道行動是否促進(jìn)或阻礙了其進(jìn)展。因此,RL代理商必須平衡其對環(huán)境的探索,以找到實現(xiàn)獎勵的最佳策略,以及利用其發(fā)現(xiàn)達(dá)到預(yù)期目標(biāo)的最佳策略。這種方法在Google DeepMind的Atari games and Go的工作中受到歡迎。RL在現(xiàn)實世界中工作的一個例子是優(yōu)化能源效率以降低Google數(shù)據(jù)中心的任務(wù)。這里,RL系統(tǒng)實現(xiàn)了降低40%的冷卻成本。在可以模擬的環(huán)境(例如視頻游戲)中使用RL代理的一個重要的本地優(yōu)勢在于可以以多種成本生成訓(xùn)練數(shù)據(jù)。這與監(jiān)督的深度學(xué)習(xí)任務(wù)形成鮮明對比,這些任務(wù)通常需要從現(xiàn)實世界獲取昂貴且難以獲得的訓(xùn)練數(shù)據(jù)。
應(yīng)用程序:多個代理人在共享模型環(huán)境中學(xué)習(xí)學(xué)習(xí)自己的實例,或者通過在相同的環(huán)境中相互交互和學(xué)習(xí),學(xué)習(xí)導(dǎo)航3D環(huán)境,如迷宮或城市街道,進(jìn)行自主駕駛,反向強(qiáng)化學(xué)習(xí),概括觀察行為通過學(xué)習(xí)任務(wù)的目標(biāo)(例如學(xué)習(xí)驅(qū)動或賦予非人類視頻游戲角色與人類行為)。
主要研究人員:Pieter Abbeel(OpenAI),David Silver,Nando de Freitas,Raia Hadsell,Marc Bellemare(Google DeepMind),Carl Rasmussen(劍橋),Rich Sutton(Alberta),John Shawe-Taylor(UCL)等。
公司:Google DeepMind,Prowler.io,Osaro,MicroPSI,Maluuba / Microsoft,NVIDIA,Mobileye,OpenAI。
2. 生成模型
與用于分類或回歸任務(wù)的歧視模型相反,生成模型在訓(xùn)練示例中學(xué)習(xí)概率分布。通過從這種高維度分布中抽樣,生成模型輸出與訓(xùn)練數(shù)據(jù)類似的新例子。這意味著,例如,對真實面部圖像進(jìn)行訓(xùn)練的生成模型可以輸出類似面部的新合成圖像。有關(guān)這些模型如何工作的更多細(xì)節(jié),請參閱Ian Goodfellow NIPS 2016教程。他介紹的架構(gòu),生成對抗網(wǎng)絡(luò)(GAN)在研究領(lǐng)域特別熱門,因為它們提供了無人監(jiān)督學(xué)習(xí)的途徑。GAN有兩個神經(jīng)網(wǎng)絡(luò):生成器,將隨機(jī)噪聲作為輸入并且合成內(nèi)容(例如圖像)和鑒別器,這幫助他了解了什么是真實圖像,并且被識別由發(fā)生器創(chuàng)建的圖像是真實的或假的。對抗訓(xùn)練可以被認(rèn)為是一種游戲,其中發(fā)生器必須迭代地學(xué)習(xí)如何從噪聲中創(chuàng)建圖像,使得鑒別器不再能夠?qū)⑸傻膱D像與實際圖像區(qū)分開來。這個框架正在擴(kuò)展到許多數(shù)據(jù)模式和任務(wù)。
應(yīng)用:模擬時間序列的可能期貨(例如,強(qiáng)化學(xué)習(xí)中的規(guī)劃任務(wù)); 超分辨率圖像 ; 從2D圖像恢復(fù)3D結(jié)構(gòu) ; 從小標(biāo)簽數(shù)據(jù)集推廣; 一個輸入可以產(chǎn)生多個正確輸出的任務(wù)(例如,在視頻中預(yù)測下一幀 ;在對話接口(例如漫游器)中創(chuàng)建自然語言; 加密 ;當(dāng)不是所有標(biāo)簽可用時ji進(jìn)行半監(jiān)督學(xué)習(xí); 藝術(shù)風(fēng)格轉(zhuǎn)移 ; 綜合音樂和聲音 ;畫中畫。
公司:Twitter Cortex,Adobe,Apple,Prisma,Jukedeck *,Creative.ai,Gluru *,Mapillary *,Unbabel。
主要研究人員:Ian Goodfellow(OpenAI),Yann LeCun和Soumith Chintala(Facebook AI Research),Shakir Mohamed和A?ronvan den Oord(Google DeepMind),Alyosha Efros(Berkeley)等等。
3. 神經(jīng)網(wǎng)絡(luò)
為了讓AI系統(tǒng)像現(xiàn)在一樣在多種現(xiàn)實環(huán)境中進(jìn)行泛化,他們必須能夠不斷學(xué)習(xí)新任務(wù),并記住如何在將來執(zhí)行所有這些任務(wù)。然而,傳統(tǒng)的神經(jīng)網(wǎng)絡(luò)通常不具有這種可以做到不忘記順序的任務(wù)學(xué)習(xí)。這個缺點(diǎn)被稱為災(zāi)難性遺忘。這是因為當(dāng)網(wǎng)絡(luò)按順序進(jìn)行訓(xùn)練時,對任務(wù)A來說很重要的權(quán)重在完成B任務(wù)時發(fā)生了變化。
??然而,有幾種強(qiáng)大的架構(gòu)可以使神經(jīng)網(wǎng)絡(luò)具有不同程度的記憶。這些包括能夠處理和預(yù)測時間序列的長期記憶網(wǎng)絡(luò)(一種經(jīng)常性的神經(jīng)網(wǎng)絡(luò)變體),DeepMind的神經(jīng)網(wǎng)絡(luò)和存儲器系統(tǒng)的可微分神經(jīng)計算機(jī),以便自己學(xué)習(xí)和導(dǎo)航復(fù)雜的數(shù)據(jù)結(jié)構(gòu),elastic weight consolidation算法會根據(jù)一個權(quán)重對于之前的任務(wù)的重要性適當(dāng)放緩其在當(dāng)前任務(wù)上面的學(xué)習(xí),進(jìn)行性神經(jīng)網(wǎng)絡(luò)是了解特定任務(wù)的模型之間的橫向連接,以提取先前學(xué)習(xí)的網(wǎng)絡(luò)實用功能。
應(yīng)用:可以推廣到新環(huán)境的學(xué)習(xí)代理; 機(jī)器人手臂控制任務(wù); 自主車輛; 時間序列預(yù)測(如金融市場,視頻,物聯(lián)網(wǎng)); 自然語言理解和下一個字預(yù)測。
公司:Google DeepMind,NNaisense(?),SwiftKey / Microsoft Research,F(xiàn)acebook AI Research。
主要研究人員:Alex Graves,Raia Hadsell,Koray Kavukcuoglu(Google DeepMind),JürgenSchmidhuber(IDSIA),Geoffrey Hinton(Google Brain / Toronto),James Weston,Sumit Chopra,Antoine Bordes(FAIR)。
4. 從較少的數(shù)據(jù)中學(xué)習(xí),建立較小的模型
深度學(xué)習(xí)模型值得注意的是需要大量的培訓(xùn)數(shù)據(jù)才能達(dá)到最先進(jìn)的表現(xiàn)。例如,ImageNet大型視覺識別挑戰(zhàn),參賽團(tuán)隊將挑戰(zhàn)他們的圖像識別模型,包含120萬個手動標(biāo)記有1000個對象類別的訓(xùn)練圖像。如果沒有大規(guī)模的培訓(xùn)數(shù)據(jù),深度學(xué)習(xí)模型就不能達(dá)到其最佳設(shè)置,并且在諸如語音識別或機(jī)器翻譯等復(fù)雜任務(wù)中表現(xiàn)差勁。僅當(dāng)使用單個神經(jīng)網(wǎng)絡(luò)來解決端對端問題時,數(shù)據(jù)要求才會增長; 也就是說,以錄音的原始錄音作為輸入,并輸出演講的文字。這與使用多個網(wǎng)絡(luò)相反,每個網(wǎng)絡(luò)提供中間表示(例如,原始語音音頻輸入→音素→單詞→文本輸出; 或來自攝像機(jī)的原始像素直接映射到轉(zhuǎn)向命令)。如果我們希望人工智能系統(tǒng)能夠解決這類訓(xùn)練數(shù)據(jù)具有挑戰(zhàn)性、成本高昂、敏感或耗時的任務(wù),那么重要的是開發(fā)可以從較少示例(即一次或零點(diǎn)學(xué)習(xí))中學(xué)習(xí)最佳解決方案的模型。當(dāng)對小數(shù)據(jù)集進(jìn)行培訓(xùn)時,挑戰(zhàn)包括過度配套,處理異常值的困難,培訓(xùn)和測試之間的數(shù)據(jù)分布差異。另一種方法是通過將知識從先前任務(wù)中獲取的機(jī)器學(xué)習(xí)模型轉(zhuǎn)移到統(tǒng)稱為轉(zhuǎn)移學(xué)習(xí)的過程來改進(jìn)對新任務(wù)的學(xué)習(xí)。或來自攝像機(jī)的原始像素直接映射到轉(zhuǎn)向命令)。
??相關(guān)的問題是使用類似數(shù)量或明顯較少的參數(shù)構(gòu)建更小的深度學(xué)習(xí)架構(gòu),并具有最先進(jìn)的性能。優(yōu)勢將包括更有效的分布式培訓(xùn),因為數(shù)據(jù)需要在服務(wù)器之間進(jìn)行通信,較少的帶寬將新模型從云端導(dǎo)出到邊緣設(shè)備,并提高部署到有限內(nèi)存的硬件的可行性。
應(yīng)用:通過模擬最初用于大標(biāo)簽訓(xùn)練數(shù)據(jù)進(jìn)行訓(xùn)練的深層網(wǎng)絡(luò)的性能來訓(xùn)練淺層網(wǎng)絡(luò); 具有較少參數(shù)但與深層模型相同性能的架構(gòu)(例如SqueezeNet); 機(jī)器翻譯。
公司:幾何智能/ Uber,DeepScale.ai,微軟研究,Curious AI公司,Google,Bloomsbury AI。
主要研究人員:Zoubin Ghahramani(劍橋),Yoshua Bengio(蒙特利爾),Josh Tenenbaum(MIT),Brendan Lake(NYU),Oriol Vinyals(Google DeepMind),Sebastian Riedel(UCL)。
5. 訓(xùn)練和推理的硬件
AI的進(jìn)步的主要催化劑是用于訓(xùn)練大型神經(jīng)網(wǎng)絡(luò)模型的圖形處理單元(GPU)的重用。與以順序方式計算的中央處理單元(CPU)不同,GPU提供了可以同時處理多個任務(wù)的大規(guī)模并行架構(gòu)。鑒于神經(jīng)網(wǎng)絡(luò)必須處理大量(通常是高維數(shù)據(jù)),因此在GPU上的培訓(xùn)比使用CPU快得多。這就是為什么GPU 在2012年發(fā)布AlexNet之后,已經(jīng)成為淘金熱的鏟子,這是在GPU上實現(xiàn)的第一個神經(jīng)網(wǎng)絡(luò)。英偉達(dá),高通,AMD以及最近的谷歌,NVIDIA繼續(xù)在2017年處于領(lǐng)先地位。
??然而,GPU不是專門用于培訓(xùn)或推斷的; 它們被創(chuàng)建為渲染視頻游戲的圖形。GPU具有很高的計算精度,并不總是需要并且受到存儲器帶寬和數(shù)據(jù)吞吐量的影響。這已經(jīng)打開了像谷歌這樣的大型公司的新一代創(chuàng)業(yè)公司和項目的競爭環(huán)境,專門為高維機(jī)器學(xué)習(xí)應(yīng)用設(shè)計和生產(chǎn)硅片。新芯片設(shè)計承諾的改進(jìn)包括更大的內(nèi)存帶寬,圖形上的計算,而不是向量(GPU)或標(biāo)量(CPU),更高的計算密度,效率和每瓦特性能。這是令人興奮的,因為AI系統(tǒng)向其所有者和用戶提供明顯的加速回報:更快更高效的模型訓(xùn)練→更好的用戶體驗→用戶更多地參與→創(chuàng)建更大的數(shù)據(jù)集→通過優(yōu)化提高模型性能。因此,能夠更快地訓(xùn)練和部署計算能量和能源效率的AI模型的人具有顯著的優(yōu)勢。
應(yīng)用:更快的模型培訓(xùn)(特別是圖表); 做出預(yù)測時的能量和數(shù)據(jù)效率; 在邊緣運(yùn)行AI系統(tǒng)(IoT設(shè)備); 永遠(yuǎn)聽取物聯(lián)網(wǎng)設(shè)備; 云基礎(chǔ)設(shè)施即服務(wù); 自主車輛,無人機(jī)和機(jī)器人。
公司:Graphcore,Cerebras,Isocline Engineering,Google(TPU),NVIDIA(DGX-1),Nervana Systems(Intel),Movidius(Intel),Scortex
主要研究人員:?空缺
6. 仿真環(huán)境
如前所述,為AI系統(tǒng)生成訓(xùn)練數(shù)據(jù)通常是具有挑戰(zhàn)性的。更重要的是,如果AI在現(xiàn)實世界中對我們有用,就必須將其概括為許多情況。因此,開發(fā)模擬現(xiàn)實世界的物理和行為的數(shù)字環(huán)境將為我們提供測試床來測量和訓(xùn)練AI的一般智力。這些環(huán)境將原始像素呈現(xiàn)給AI,然后采取行動以解決其已設(shè)置(或?qū)W習(xí))的目標(biāo)。在這些模擬環(huán)境中的培訓(xùn)可以幫助我們了解AI系統(tǒng)如何學(xué)習(xí),如何改進(jìn),還可以為我們提供可能轉(zhuǎn)移到現(xiàn)實應(yīng)用中的模型。
應(yīng)用:學(xué)習(xí)駕駛 ; 制造業(yè); 工業(yè)設(shè)計; 游戲開發(fā); 聰明的城市
公司:Improbable,Unity 3D,Microsoft(Minecraft),Google DeepMind / Blizzard,OpenAI,Comma.ai,虛幻引擎,Amazon Lumberyard
研究人員:Andrea Vedaldi(牛津)
原文鏈接: http://www.igeekbar.com/igeekbar/post/288.htm?hmsr=toutiao.io&utm_medium=toutiao.io&utm_source=toutiao.io