【翻譯:嶺南客】
原文:When Will AI Graduate from Assisted to Autonomous?

思想學(xué)院
自大型計(jì)算機(jī)以來(lái),人們已經(jīng)設(shè)想出機(jī)器的未來(lái)潛力,可以幫助他們更快、更準(zhǔn)確、更方便地執(zhí)行不同的任務(wù)。 直到最近,這是通過(guò)軟件完成的(這些軟件是用布爾代數(shù)、邏輯和透明的方式創(chuàng)建的),條件執(zhí)行(if / then / else)和循環(huán)(for / do)是我們所知道的軟件的基石。 理解和改變代碼的只是一個(gè)培訓(xùn)問(wèn)題。
隨著神經(jīng)網(wǎng)絡(luò)和深度學(xué)習(xí)的引入,一切都發(fā)生了變化。 即使是最好的專家也很難理解在經(jīng)過(guò)消化大量數(shù)據(jù)的過(guò)程之后,機(jī)器能夠獲得驚人的答案。 這更接近人類大腦工作的方式,基于直覺(jué)超過(guò)邏輯推論。 雖然令人印象深刻,但也可以說(shuō)是可怕的。 它提出這個(gè)問(wèn)題,我們應(yīng)該允許這樣的機(jī)器更自主決策嗎?
人與AI:勝利的組合
到目前為止,AI智能等級(jí)第四級(jí)仍然是一個(gè)不可及的烏托邦,我們不應(yīng)該擔(dān)心機(jī)器人很快接管世界。 然而,進(jìn)步是顯著的,應(yīng)該得到很好的利用,即使情報(bào)仍然需要人為因素的幫助和支持。
目前等級(jí)
現(xiàn)在,使用AI有3個(gè)可行的選擇:讓機(jī)器自己處理簡(jiǎn)單的重復(fù)性任務(wù),使用人工智能作為人類專家的值得信賴的助手,或讓任何人隨時(shí)接手,但鼓勵(lì)A(yù)I學(xué)習(xí)更多、并進(jìn)化發(fā)展。
最后兩個(gè)案例是最有趣和值得發(fā)展的,因?yàn)榈谝环N情況下的大多數(shù)情況僅僅是自動(dòng)化的例子,而不是真正的AI。
人工輔助人類通常是那些專家,他們可以在工作中使用輔助的觀測(cè)或第二意見(jiàn)。想象一位放射科醫(yī)生看著可能是惡性腫瘤的東西。在做出這樣的診斷之前,將樣品與更為已知的實(shí)例進(jìn)行比較是非常好的。那就是AI正在玩的地方。人與機(jī)器組合得到的結(jié)果超過(guò)了每個(gè)人的個(gè)人表現(xiàn)。
進(jìn)一步的步驟是允許深度學(xué)習(xí)算法來(lái)監(jiān)督?jīng)Q策,并且只有當(dāng)AI產(chǎn)生明顯的錯(cuò)誤時(shí),才能對(duì)其進(jìn)行糾正。這就是在方向盤后坐一個(gè)人的自動(dòng)駕駛汽車正在做的事情。為了安全起見(jiàn),對(duì)車輛進(jìn)行全面控制是不明智的,盡管它與一個(gè)無(wú)聊,可預(yù)測(cè)和謹(jǐn)慎的駕駛員相比,具有足夠的性能。同樣的邏輯適用于公司聊天室,照顧可以將對(duì)話升級(jí)到人類客戶服務(wù)代表的客戶關(guān)系。
算法黑箱
AI開(kāi)發(fā)面臨的最大挑戰(zhàn)是:算法對(duì)于如何決策是不透明(不顯性的)。 這意味著無(wú)法足夠快的速度調(diào)整機(jī)器,來(lái)使它在發(fā)生錯(cuò)誤時(shí)能以正確的方式進(jìn)行響應(yīng)。 唯一的辦法就是教它這樣做,就是讓孩子從錯(cuò)誤中學(xué)習(xí),通過(guò)給予許多(如上千或者數(shù)百萬(wàn))好的例子,希望下次能夠正確地執(zhí)行。
隔離故障
在條件算法中,分離導(dǎo)致錯(cuò)誤并糾正錯(cuò)誤的代碼是很直接和明顯的,計(jì)算機(jī)就是程序本身。 但從用于訓(xùn)練的數(shù)據(jù)指出導(dǎo)致不當(dāng)行為的元素幾乎是不可能的,因?yàn)檫M(jìn)入第一神經(jīng)元層的信息被處理,進(jìn)入下一層,并且還有反饋機(jī)制。 為AI設(shè)備提供自主性需要相信他們是不犯錯(cuò)誤的。
強(qiáng)化學(xué)習(xí)
如上所述,為了變得更加自主,AI應(yīng)該能夠糾正自己的錯(cuò)誤,而不是進(jìn)一步傳播。 想象一下,一次不會(huì)停在紅色交通信號(hào)燈上的汽車。 沒(méi)有改正,再次犯錯(cuò)誤的機(jī)會(huì)很高。 甚至可以相信這是正常的,記得TAY嗎? 人類使用的這種類型的學(xué)習(xí)意味著大量的嘗試和錯(cuò)誤。 人工智能仍然處于協(xié)助狀態(tài),專家組通過(guò)提供更多的“正確”數(shù)據(jù)集來(lái)監(jiān)控結(jié)果并糾正機(jī)器。
誤判
一個(gè)AI的最大問(wèn)題之一是錯(cuò)誤診斷。 雖然有些情況并不重要,比如在某些可能障礙物之前放慢自駕車,但其他的則會(huì)危及生命,例如當(dāng)病人看起來(lái)有癥狀時(shí)為病人提供治療,但實(shí)際上可能沒(méi)有病。
應(yīng)用
對(duì)于涉及模式,客戶習(xí)慣和最佳實(shí)踐的學(xué)習(xí)的項(xiàng)目,建議使用神經(jīng)網(wǎng)絡(luò)。 InData Labs最近發(fā)表的一篇文章提出了在移動(dòng)環(huán)境中AI的三個(gè)即時(shí)應(yīng)用。 推薦服務(wù)是第一個(gè)被亞馬遜發(fā)展的靈感,這些服務(wù)是無(wú)副作用的、足以采用全自動(dòng)算法。 另一個(gè)例子是學(xué)習(xí)行為模式,可以從個(gè)人禮賓服務(wù)到個(gè)人助理機(jī)器人甚至機(jī)器人會(huì)計(jì)師使用,這可能需要一些人為干預(yù)。 最后和最重要的一種將是能夠思考和決定最佳行動(dòng)方案的應(yīng)用程序,如個(gè)人法律顧問(wèn),個(gè)人醫(yī)生或無(wú)法駕駛的無(wú)人駕駛汽車,但是我們目前還沒(méi)有達(dá)到這個(gè)水平。
總結(jié)
現(xiàn)在,在人工智能的成長(zhǎng)中、把它置于適當(dāng)?shù)娜藶楦深A(yù)范圍內(nèi),才是安全的。 下一步是通過(guò)喂它許多優(yōu)秀例程、并開(kāi)發(fā)逐漸取代人類的“導(dǎo)師”算法來(lái)教導(dǎo)其糾正錯(cuò)誤。 AI的最重要的特征是知識(shí)傳遞特點(diǎn), 一旦機(jī)器學(xué)到了一些東西,它就能在另一臺(tái)機(jī)器上被復(fù)制和傳遞,訓(xùn)練不需要從每個(gè)計(jì)算機(jī)的第0點(diǎn)開(kāi)始,它只要從上一級(jí)繼續(xù)。 這個(gè)功能使AI能夠在短短幾年內(nèi)發(fā)展到人類的水平。
人類已為此做好準(zhǔn)備嗎?
更多文章,請(qǐng)關(guān)注微信公眾號(hào):嶺南天問(wèn)閣 (公眾號(hào)ID:edmoon_cai)