你愿意給人工智能一次機會嗎?

雖然公眾對人工智能的看法不一定準(zhǔn)確,但這不表示開發(fā)人員可以忽略它。

在郵件還靠郵寄的年代,挑揀垃圾郵件并不是什么費力的事。但是當(dāng)郵件開始通過數(shù)字方式寄送時,計算機便也開始產(chǎn)出大量垃圾郵件。因此,從海量垃圾郵件(spam)中識別出真實郵件(或者說互聯(lián)網(wǎng)行話所謂的“非垃圾郵件”(ham))的工作也有必要進(jìn)一步自動化。

但是,精明的垃圾郵件制造者很快便找到了躲避垃圾郵件過濾器的方法,于是電子郵箱平臺轉(zhuǎn)而采用人工智能來對付他們。如今,人工智能系統(tǒng)經(jīng)過無數(shù)垃圾郵件和非垃圾郵件的訓(xùn)練,已經(jīng)能夠加以區(qū)分,守衛(wèi)你的收件箱,你連一根手指都不用動。

人工智能就是這樣在我們毫無覺察的情況下滲透進(jìn)我們的日常生活。新千年伊始,有人擔(dān)心垃圾郵件可能會扼殺電子郵件。但是機器學(xué)習(xí)力挽狂瀾,因為它很善于識別群發(fā)郵件的模式套路。

盡管如此,機器學(xué)習(xí)并非完美無缺;只有及時更新數(shù)據(jù)庫才能識破垃圾郵件制造者的新花樣,而用戶仍需要時不時地查看垃圾郵件過濾器是否誤吞了重要的郵件。話雖這么說,機器學(xué)習(xí)系統(tǒng)是我們擁有的最好的工具。

收件箱并不是人工智能照進(jìn)我們生活的唯一渠道。流媒體服務(wù)平臺利用機器學(xué)習(xí)技術(shù)向用戶推薦接下來要看的電影;引導(dǎo)我們發(fā)現(xiàn)接下來可能會在線購買的商品;識別照片中的人和物,方便我們再次找到它們。

現(xiàn)在,許多人每天都會與計算機進(jìn)行口頭互動交流。谷歌的AlphaGo利用機器學(xué)習(xí)在擁有3000年歷史的圍棋項目上擊敗了人類大師,贏得了眾多媒體的如潮好評。

但是隨著此類應(yīng)用的不斷增多,我們對人工智能在日常生活中的存在也有了越來越深的覺察。因此,正在大力推動下一個自動化變革的技術(shù)人員需要直面一個更加嚴(yán)肅的問題:公眾究竟想要什么。

過去一個世紀(jì)的科幻小說已經(jīng)深深影響了公眾對于人工智能的看法,面對人工智能日益突出的地位,人們的普遍反應(yīng)是恐懼。現(xiàn)在,有一小群公司不惜重金,力圖將機器學(xué)習(xí)用于無人駕駛汽車;比起識別電子郵件這類較為簡單的模式,這是一個更加遠(yuǎn)大也更加有風(fēng)險的項目。在這個過程中,這些公司不得不解決一個問題:如何應(yīng)對公眾對于人工智能的認(rèn)知。


前路漫漫

汽車行業(yè)是人工智能應(yīng)用的熱門領(lǐng)域之一,經(jīng)歷過重重困難。本世紀(jì)00年代末,高油價打壓了原本利潤豐厚的SUV和卡車的銷量,而這兩種車型是美國汽車制造商非常依賴的主流車型。2008年金融危機過后,通用汽車和克萊斯勒(如今的菲亞特克萊斯勒汽車公司)需要美國政府提供800億美元的緊急救助。

現(xiàn)在,人工智能的快速進(jìn)步以及傳感系統(tǒng)的改進(jìn)帶來了劇變求新的機會。許多老牌汽車制造商將無人駕駛汽車視為其恢復(fù)元氣的下一步棋,而一些技術(shù)巨頭也在向汽車行業(yè)進(jìn)軍。

在無人駕駛汽車的提倡者看來,無人駕駛技術(shù)可以方便人們的生活,因為它可以將人們從高峰期通勤的壓力中解放出來,也能夠讓無法駕駛的人體驗自由出行。不僅如此,利用人工智能取代人類駕駛員——有人稱之為“坐在方向盤后面的難題”——也將大幅減少道路交通事故;根據(jù)世界衛(wèi)生組織的數(shù)據(jù),每年因交通事故死亡的人數(shù)超過100萬人。

無人駕駛汽車的研發(fā)正在如火如荼地進(jìn)行。Waymo(科技巨頭谷歌的姐妹公司)制造的測試車輛目前已在公共道路上行駛了1000多萬英里。不久前,Waymo在亞利桑那州鳳凰城開始了無人駕駛出租車的商業(yè)運營。通用汽車計劃在2019年推出自己的“機器出租車”(robo-taxis),福特也計劃在2021年推出類似的服務(wù)。

汽車行業(yè)和技術(shù)行業(yè)都認(rèn)為無人駕駛汽車已經(jīng)準(zhǔn)備好上路了,但是公眾還沒準(zhǔn)備好去乘坐。2018年4月,蓋普洛公司的一項民意調(diào)查顯示,只有9%的美國成年人愿意在政府監(jiān)管機構(gòu)判定無人駕駛汽車的安全性后,使用無人駕駛汽車。38%的人表示會在無人駕駛汽車推出后,先觀望一段時間再說。52%的人表示絕對不會想要使用無人駕駛汽車。

可見,行業(yè)的自信與公眾的謹(jǐn)慎形成了鮮明的反差,這對于那些正在開發(fā)這項技術(shù)的人而言是不利的。許多人對于人工智能的恐懼至少在一定程度上反映了人工智能實驗曾走過的錯路給人留下了不安的陰影。

比如2016年微軟的一款聊天機器人便是一個例證,這個機器人原本設(shè)計用于在推特上和網(wǎng)友進(jìn)行幽默有趣的對話互動,但是在上線僅16個小時后便開始冒出各類種族歧視和性別歧視的語言。之所以出現(xiàn)這種情況,是因為部分推特用戶向其灌輸了此類感情色彩。

2017年,麻省理工學(xué)院的研究人員表明,以特定方式塑造物體可以騙過谷歌開發(fā)的圖像識別系統(tǒng),比如該系統(tǒng)曾把一只3D打印的海龜識別為來福槍——從任何角度觀察都會導(dǎo)致這一結(jié)果。

不久前,印地安那大學(xué)伯明頓分校的人工智能研究人員及游戲設(shè)計師Mike Sellers講述了他在十幾年前的一次經(jīng)歷,當(dāng)時他為美國國防高級研究計劃局(DARPA)創(chuàng)造的兩個實驗性人工智能機器人判定另一個機器人適宜食用。

2018年3月,叫車公司優(yōu)步(Uber)在匹茲堡測試一批無人駕駛的沃爾沃汽車??


在某些情況下,對人工智能實驗的報道方式也會引起不必要的恐慌。2017年6月,F(xiàn)acebook的人工智能研究人員發(fā)帖描述了他們的一項工作進(jìn)展:兩個試圖談判的聊天機器人開始在對話中使用代碼字。此事經(jīng)過新聞報道后給人留下的印象是:研究人員為免事態(tài)失去控制,急忙終止了實驗。此外,公眾人物的警告也有可能放大外界的恐懼,比如企業(yè)家伊隆·馬斯克(Elon Musk)曾揚言人工智能或許很快便會強大到能統(tǒng)治世界的地步。


有多接近人類?

一些對于人工智能的恐懼可能源于機器與人差別不大的觀點。英國紐卡斯?fàn)柎髮W(xué)的數(shù)據(jù)科學(xué)家Steve McGough說:“當(dāng)你看到機器人打敗世界圍棋冠軍,你會認(rèn)為它比自己強這么多,自己毫無機會可言?!彼J(rèn)為許多人不明白的是,那些機器人在其它任何方面都無法與人類匹敵。

在科幻小說的最初構(gòu)想中,機器智能被設(shè)想成與人類智能相仿。最早的科幻小說機器人之一來自于作家萊曼·弗蘭克·鮑姆在20世紀(jì)初的《綠野仙蹤》后續(xù)系列,他在其中創(chuàng)造的機械人“滴答”(Tik-Tok)雖然沒有情感,但是在其它方面擁有類似人類的智能。

生物化學(xué)家艾薩克·阿西莫夫(Isaac Asimov)以撰寫科幻小說聞名,在其1942年的小說《環(huán)舞》(Runaround)中,基于機器將像人類一樣思考的假設(shè),提出了機器人三大定律(three laws of robotics)。

許多人工智能早期先驅(qū)都受到了這篇小說的啟發(fā)。20世紀(jì)60年代初,馬文·閔斯基(Marvin Minsky)在麻省理工學(xué)院與人聯(lián)合創(chuàng)立了一間人工智能實驗室,1992年聽聞阿西莫夫的死訊后,他寫道,在看完《環(huán)舞》之后,他“一直在思考思想是如何運作的。可以肯定的是,終有一天,我們將創(chuàng)造出會思考的機器人”

20世紀(jì)50年代掀起的第一波人工智能熱潮在一定程度上得益于艾倫·圖靈(Alan Turing)的工作。圖靈發(fā)明了同名的“圖靈測試”——參與圖靈測試的人需要判斷與其進(jìn)行對話的是人類還是機器。2

0世紀(jì)60年代,當(dāng)時在現(xiàn)為美國非營利組織斯坦福國際研究院(SRI International)研究人工智能和神經(jīng)網(wǎng)絡(luò)的Nils John Nilsson說:“為了讓機器可以做人類所做的事情,大家做了許多工作?!钡牵嚓P(guān)進(jìn)展一度陷入停滯狀態(tài),到20世紀(jì)70年代末,經(jīng)費不斷縮減,出現(xiàn)了我們現(xiàn)在所知的“人工智能寒冬”。

但是1997年,形勢得到了徹底扭轉(zhuǎn),當(dāng)時IBM的“深藍(lán)”(Deep Blue)打敗了國際象棋世界冠軍加里·卡斯帕羅夫(Garry Kasparov)。深藍(lán)憑借強大的計算能力,通過純粹的暴力破解法戰(zhàn)勝了對手:它在每一步允許的三分鐘時間內(nèi),計算了每一種可能的場景。

進(jìn)入新千年之后,暴力破解法被用于機器學(xué)習(xí)技術(shù)——對海量數(shù)據(jù)進(jìn)行分析以找出其中存在的模式。視所采用的數(shù)據(jù)集而定,人工智能系統(tǒng)借此能夠識別圖像,或者設(shè)計一種制勝策略在看似具有無數(shù)種招式的游戲中獲勝。

但是,人工智能所掌握的特定技能不具有可轉(zhuǎn)移性。雖然AlphaGo打敗了世界圍棋冠軍,但是McGough說:“只要改變其中一條規(guī)則,人類大師便能利用自己的經(jīng)驗輕松獲勝?!?/b>人工智能在國際象棋和圍棋領(lǐng)域捷報頻傳可能會給人這樣一種印象:現(xiàn)在的計算機在認(rèn)知能力上已經(jīng)堪比人類?!暗菍嶋H上兩者之間仍存在一條鴻溝?!彼f。

機器學(xué)習(xí)和自然語言專家Greg Hullender是亞馬遜和微軟的研究科學(xué)家,他說:“人腦可以解決人工智能前所未見的問題?!薄皺C器學(xué)習(xí)完全做不到這一點。機器學(xué)習(xí)都是針對特定問題而設(shè)計的?!?/p>

正是因為存在這一決定性差異,許多人工智能專家對機器人將主宰世界和未來人工智能烏托邦的論調(diào)嗤之以鼻。德克薩斯大學(xué)奧斯汀分校的人工智能研究人員Peter Stone說:“兩種說法都太夸張了?!?/p>


汽車難題

就無人駕駛汽車而言,公眾的抵觸情緒不僅僅在于人類會被取代。在美國,熱愛駕駛的人在聽聞無人駕駛支持者宣揚機器人上路更安全時,感到惶恐不已。一些人甚至組織了抗議。

2018年1月,為保護(hù)人類自主駕駛的權(quán)利,耐力賽車手、作家Alex Ray成立了人類駕駛聯(lián)合會(Human Driving Association)。及至當(dāng)年10月,已有4000名車手入會。汽車愛好者、商人McKeel Hagerty擁有美國最大的古董車保險公司,他認(rèn)為他需要吸引600萬人加入他類似的“拯救駕駛”活動中,以保護(hù)人類的駕駛權(quán)利。

無人駕駛汽車使用激光雷達(dá)創(chuàng)建周圍環(huán)境地圖??


但是關(guān)鍵問題在于,雖然統(tǒng)計數(shù)據(jù)顯示人為錯誤是大多數(shù)致命交通事故發(fā)生的原因,公眾仍免不了擔(dān)心無人駕駛的安全性。大部分人都認(rèn)為自己的駕駛技術(shù)高于平均水平,因此他們更擔(dān)心的是別人或機器人的駕駛技術(shù)。而無人駕駛汽車發(fā)生過交通意外的事實,也損害了公眾對這一技術(shù)的信任。

第一起致命事故發(fā)生在2016年,當(dāng)時佛羅里達(dá)州的一名特斯拉愛好者在使用該車的有限“自動駕駛”輔助功能時,撞上了一輛卡車。調(diào)查人員發(fā)現(xiàn),事故發(fā)生的主要原因是特斯拉駕駛員對汽車反復(fù)發(fā)出的提醒——手持方向盤——視而不見,而卡車駕駛員也轉(zhuǎn)彎不當(dāng)。

2018年3月,加州山景城發(fā)生另一起事故,更加引發(fā)了人們的不安。根據(jù)美國國家運輸安全委員會(US National Transportation Safety Board)的初步調(diào)查報告,一輛特斯拉汽車啟用了“自動駕駛”功能,超速行駛撞向一隔離帶,與另外兩輛車發(fā)生碰撞。

這場車禍距離第一起全面無人駕駛汽車引發(fā)的致命事故不過幾天而已。另外,優(yōu)步測試的一輛無人駕駛汽車在某天夜間撞上了一名行人并造成其死亡。這起事故發(fā)生在亞利桑那州坦佩市,死者當(dāng)時正推著自行車過馬路。

之后浮現(xiàn)出來的細(xì)節(jié)令人深感擔(dān)憂。肇事汽車的傳感器在事發(fā)前6秒檢測到了這名女性受害人及其自行車,但是5秒后,車載人工智能仍然沒有決定是否要提醒安全駕駛員。事發(fā)時車速為每小時69公里,當(dāng)駕駛員終于放下手機抬頭看時,汽車剛好撞上了行人。

亞利桑那州和加州發(fā)生的事故加重了公眾的恐懼,人們認(rèn)為無人駕駛汽車會對人類安全構(gòu)成威脅??伎怂蛊嚕–ox Automotive)在上述事故發(fā)生后很快做了一項調(diào)查,結(jié)果顯示公眾對于無人駕駛汽車的認(rèn)知度在2016年到2018年期間上升了逾20%,但是同期表示永遠(yuǎn)不會購買全面無人駕駛汽車的占比也由30%上升到了近50%。受訪者的主要考量是安全問題。

現(xiàn)在,汽車行業(yè)正在采取魅力攻勢來扭轉(zhuǎn)局面。在亞利桑那州事故發(fā)生后,優(yōu)步關(guān)閉了公司在當(dāng)?shù)氐臏y試設(shè)施,并且表示將改變無人駕駛汽車的測試方式。

與此同時,Waymo公司在其無人駕駛汽車正式被批上路前,也與反醉駕母親協(xié)會(Mothers Against Drunk Driving)和美國國家安全委員會(US National Safety Council)等組織聯(lián)合展開教育宣傳活動。

2017年末,計算機芯片制造商英特爾請籃球明星勒布朗·詹姆斯在廣告中出鏡,宣傳無人駕駛汽車。


人為因素

無人駕駛交通事故讓人們發(fā)現(xiàn),按照5個級別開發(fā)無人駕駛汽車的做法存在嚴(yán)重隱患。這5個級別包括低級別的駕駛輔助,如巡航控制,到更高級的無監(jiān)控自動駕駛。美中不足的唯一問題其實是人類行為。

目前,特斯拉開放的是第二級無人駕駛需要配置多重系統(tǒng),輔助駕駛員停車、加速、避免越道,同時駕駛員必須手扶方向盤,并注意觀察路況。但是,任何一名駕駛特斯拉的汽車愛好者一定會在某個時間點放開方向盤,看看特斯拉自己能開得怎么樣。

事實上,部分人對無人駕駛汽車的信任只會有過之而無不及。佛羅里達(dá)州發(fā)生的交通事故顯示,駕駛員在37分鐘的行駛時間內(nèi),只有25秒是把手放在方向盤上的。

進(jìn)一步發(fā)展方向是第三級無人駕駛,在該系統(tǒng)下,汽車能控制駕駛,但是在遇到不可解的問題時會隨時將方向盤交還給人類駕駛員。如今,許多專家開始懷疑第三級無人駕駛的可行性?!?b>人類在無事可做的情況下,很難集中注意力?!?/b>馬薩諸塞州查爾斯?斯塔克?德雷珀實驗室(Charles Stark Draper Laboratory)的無人駕駛項目經(jīng)理Chris Bessette說。

走神會讓人類駕駛員無法在汽車需要幫助的情況下及時掌握實時駕駛情況,Bessette也對移交駕駛控制權(quán)的有效性表示懷疑。2012年,Waymo開發(fā)并測試了一個第三級無人駕駛系統(tǒng),但是發(fā)現(xiàn)人類駕駛員“過度信任技術(shù),以及未能認(rèn)真觀察路況,以便在必要時安全控制車輛”。Waymo最終放棄了該系統(tǒng)。

現(xiàn)在,部分汽車制造商正在“換檔”,準(zhǔn)備直接跳至第五級系統(tǒng):可以達(dá)到人類最高預(yù)期的全面無人駕駛汽車。通用汽車的無人駕駛汽車將不會配置踏板和手動轉(zhuǎn)向,且僅在路況清晰、方便汽車導(dǎo)航的有限的城市區(qū)域內(nèi)行駛。

相較于目前已在機場和主題公園投入使用的自動化人員運輸系統(tǒng)——在遠(yuǎn)離其它車輛的導(dǎo)軌上行駛,這是一個重大進(jìn)步。機器出租車將完全自主控制車輛,無需乘坐人關(guān)注路況。

聚焦城市駕駛具有重要意義。在人口密集的城市里,汽車行駛速度一般是在寬敞公路上的一半。這也縮短了汽車的制動距離,降低了車禍的嚴(yán)重程度和發(fā)生率。車速降低還能減輕人工智能的工作負(fù)載,因為這樣一來,人工智能不需要像高速行駛時那樣繪制較遠(yuǎn)距離的路況。

一些計劃提出在氣候條件不佳,可能影響人工智能系統(tǒng)的安全導(dǎo)航能力的情況下,阻止無人駕駛汽車上路。

機器出租車的應(yīng)用將能解答對于無人駕駛汽車的若干問題。取消人類駕駛員所節(jié)省的開支能夠抵消汽車自動化所需的額外成本嗎?傳感器和軟件在交通密集的城市街道表現(xiàn)如何?這類試驗也將提供測試新技術(shù)的機會,尤其是降低昂貴的激光雷達(dá)的成本、擴大激光雷達(dá)覆蓋范圍的機會。因為當(dāng)無人駕駛汽車在遠(yuǎn)離市中心的地方以更高的速度行駛時,需要通過激光雷達(dá)繪制距離汽車200米甚至更長距離的周邊環(huán)境的細(xì)節(jié)。

但是,最大的考驗可能還是公眾對于乘坐這類汽車出行的意愿。從谷歌眼鏡到美國原子能委員會1958年提出的在建筑項目中使用核爆的計劃,歷史上充滿著不少曇花一現(xiàn)的技術(shù)。隨著人工智能在我們?nèi)粘I钪械拇嬖诟性絹碓綇?,開發(fā)人員或許很快就能看到公眾是否愿意給人工智能一次機會了。


為了幫助大家讓學(xué)習(xí)變得輕松、高效,給大家免費分享一大批資料,讓AI越來越普及。在這里給大家推薦一個人工智能Python學(xué)習(xí)交流群:705673780歡迎大家進(jìn)群交流討論,學(xué)習(xí)交流,共同進(jìn)步。

當(dāng)真正開始學(xué)習(xí)的時候難免不知道從哪入手,導(dǎo)致效率低下影響繼續(xù)學(xué)習(xí)的信心。

但最重要的是不知道哪些技術(shù)需要重點掌握,學(xué)習(xí)時頻繁踩坑,最終浪費大量時間,所以擁有有效資源還是很有必要的。

?著作權(quán)歸作者所有,轉(zhuǎn)載或內(nèi)容合作請聯(lián)系作者
【社區(qū)內(nèi)容提示】社區(qū)部分內(nèi)容疑似由AI輔助生成,瀏覽時請結(jié)合常識與多方信息審慎甄別。
平臺聲明:文章內(nèi)容(如有圖片或視頻亦包括在內(nèi))由作者上傳并發(fā)布,文章內(nèi)容僅代表作者本人觀點,簡書系信息發(fā)布平臺,僅提供信息存儲服務(wù)。

相關(guān)閱讀更多精彩內(nèi)容

友情鏈接更多精彩內(nèi)容