[轉(zhuǎn)]超級人工智能毀滅人類,還是讓人類永生?科學(xué)家說或許我們能看到這一天。

如果你站在這里,會是什么感覺?

看上去非常刺激?是吧。

但是記住,你是看不見未來的,你的真實(shí)感覺其實(shí)是:

這就是蒂姆·厄班(Tim Urban)的文章《超級人工智能之路》的開篇。(本文主要素材來源于此文,載于《讀庫》1503)

未來學(xué)家雷·庫茲韋爾(Ray Kurzweil)把人類的加速發(fā)展稱為加速回報定律。一個人如果去到未來,并且被未來的情景嚇尿,需要滿足一個“嚇尿單位”,在狩獵采集需要10萬年,而工業(yè)革命后一個嚇尿單位,只要200多年就能滿足。

如果庫茲韋爾的定律是正確的,在S型的學(xué)習(xí)曲線上,我們進(jìn)入了一個指數(shù)增長階段,以前幾個世紀(jì)的進(jìn)步,我們只需要幾十年就能完成,而以后我們可能只需要幾年,幾個月,甚至幾天就能完成。

那就是說,我們的未來會非常有趣,到了2030年,世界就會把我們嚇尿了,而到了2050年,世界就會變得面目全非。

你可能會覺得這句話很可笑,但這不是科幻,而是比你我聰明很多的科學(xué)家預(yù)測的。其中包括數(shù)學(xué)家、計(jì)算機(jī)學(xué)家兼硬科幻小說作家弗諾·文奇,創(chuàng)立了太陽微系統(tǒng)公司的美國計(jì)算機(jī)科學(xué)家比爾·喬伊,科學(xué)家兼美國通用人工智能會議主席本·戈策爾,曾發(fā)明了盲人閱讀機(jī)、音樂合成器和語音識別系統(tǒng),并在1990年出版的《智能機(jī)器的時代》成功地預(yù)言了電腦將在1998年戰(zhàn)勝棋王的庫茲韋爾。

這個關(guān)鍵點(diǎn)是超人工智能的出現(xiàn),也就是“我們什么時候踩到絆線”,從而觸動歷史的轉(zhuǎn)折點(diǎn)。

先來弄清什么是人工智能。約翰·麥卡錫在1956年最早使用了“人工智能”(Artificial Intelligence ——AI)這個詞。

而更早,在二戰(zhàn)期間,英國數(shù)學(xué)家圖靈,提出了唯有利用機(jī)器才能擊敗機(jī)器的理論,制造出了圖靈機(jī),破譯了德軍的恩尼格碼Enigma密碼機(jī),使得盟軍的勝利至少提前了2年。而后,他又提出了著名的“圖靈測試”——“機(jī)器能思考嗎?”

? ? ? ? ? ? ? ? ? 電影《模仿游戲》講述了圖靈的生平

圖靈機(jī),就是計(jì)算機(jī)的鼻祖。而計(jì)算機(jī)——電腦,就是人工智能。所以,圖靈是計(jì)算機(jī)和人工智能之父。

我們每天都在使用人工智能: 電腦,智能手機(jī),翻譯軟件,搜索引擎,掃地機(jī)器人。

約翰·麥卡錫抱怨“一旦一樣?xùn)|西用人工智能實(shí)現(xiàn)了,人們就不再叫它人工智能了?!?/p>


更多的人工智能也來到我們身邊:阿爾法狗以4:1擊敗李世石,證明在需要模糊思維和大局觀的圍棋領(lǐng)域,機(jī)器也是可以戰(zhàn)勝人類的。

還有無人駕駛,智慧醫(yī)療等等…..

這些人工智能只是弱人工智能,是擅長于單個方面的人工智能。


而下一步,是強(qiáng)人工智能,是指各方面都能和人類比肩的人工智能,人類能干的腦力活它都能干。


接下來,就是超人工智能。牛津哲學(xué)家、智能人工思想家尼克·博斯特羅姆把超人工智能定義為:“在幾乎任何領(lǐng)域都比最聰明的人類大腦聰明很多,包括科學(xué)創(chuàng)新、通訊和社交技能?!?br>

我們現(xiàn)在所處的位置是一個充滿了弱人工智能的世界。

弱人工智能并不嚇人。最糟糕的情況,無非是代碼沒寫好,程序出故障,造成了單獨(dú)的災(zāi)難,比如造成停電、核電站故障、金融市場崩盤等。

從弱人工智能到強(qiáng)人工智能其實(shí)很難,科學(xué)家認(rèn)為通往超人工智能之路的瓶頸是在這里。一些我們覺得困難的事——微積分,金融市場策略,翻譯等對于電腦來說很簡單,我們覺得容易的事情——視覺、動態(tài)、直覺,對于電腦來說卻很難。

摩爾定律認(rèn)為全世界的電腦運(yùn)算能力每兩年就翻一倍,這一定律有歷史數(shù)據(jù)所支持?,F(xiàn)在1000美元能買到的電腦,已經(jīng)達(dá)到了人類大腦1/1000的水平。這聽起來弱爆了。但是1985年的時候,同樣的錢才能買到人腦萬億分之一的CPS,1995年變成了10億分之一,2005年是百萬分之一。

按照這個速度,到2025年,我們就能花1000美元買到可以和人腦運(yùn)算速度抗衡的電腦了。

但是,僅僅速度增加不能使電腦變得和人類一樣智能,怎樣模擬人腦思考才是關(guān)鍵?,F(xiàn)在有個思路是讓我們建造一個能進(jìn)行兩項(xiàng)任務(wù)的電腦——研究人工智能和修改自己的代碼,這意味著直接把電腦變成了電腦科學(xué)家,提高電腦的智能,就變成了電腦自己的任務(wù)。

而只要實(shí)現(xiàn)了強(qiáng)人工智能,能夠自我進(jìn)化的人工智能,不會停留在“人類水平”這個里程碑站臺,而是一閃而過,向超人類級別的智能飛馳而去。留下我們一臉懵逼。

不要低估指數(shù)級的增長,每一個弱人工智能的創(chuàng)新,都在給通往強(qiáng)人工智能和超人工智能的旅途上添磚加瓦。用亞倫··薩恩斯的觀點(diǎn):現(xiàn)在的弱人工智能,就是地球早期軟泥中的氨基酸——沒有動靜的物質(zhì),突然之間就組成了生命。

至于人類智能和超人類智能的差距,這已經(jīng)是人類無法理解的范疇。就像草履蟲不能理解愛因斯坦。

對于超人工智能的出現(xiàn),博斯特羅姆認(rèn)為,我們會面臨兩個結(jié)果——滅絕和永生。

回顧歷史,大部分生命都經(jīng)歷了這樣的歷程:物種出現(xiàn),存在了一段時間,然后不可避免地跌落下生命的平衡木,跌入滅絕的深淵。

大部分科學(xué)家都承認(rèn),人工智能有把人類滅絕的能力,但也有一些認(rèn)為如果運(yùn)用得當(dāng),超人工智能可以幫助人類和其他物種,達(dá)到另一個吸引態(tài)——永生。

博斯特羅姆認(rèn)為平衡木外是有兩面的,只是至今為止,“所有生物都會滅絕”和“所有人都會死“一樣靠譜,這是因?yàn)榈厍蛏系纳€沒有聰明到發(fā)現(xiàn)怎樣去到永生這另一個吸引態(tài)。

現(xiàn)在,科學(xué)家已經(jīng)在認(rèn)真考慮永生這個事情很可能在我們有生之年就能達(dá)成。

這和納米技術(shù)有關(guān)。

納米技術(shù)是說在1到100納米的范圍內(nèi)操縱物質(zhì)的技術(shù)。當(dāng)我們能夠完全掌握納米技術(shù)時,我們離在原子操縱物質(zhì)就只差一步了。因?yàn)槟侵皇且粋€數(shù)量極的差距(約0.1個納米)。

物理學(xué)家費(fèi)曼在1959年就提出:據(jù)我所知,物理學(xué)的原理,并不認(rèn)為在原子級別操縱物質(zhì)是不可能的。原則上來說,物理學(xué)家能夠制造出任何化學(xué)家能寫出來的物質(zhì)——只要把一個個原子按照化學(xué)家寫出來的放在一起就好了。

這就是說,在納米技術(shù)的時代,一個物質(zhì)的成本不再取決于它的稀缺程度或是制造流程的難度,而在于它的原子結(jié)構(gòu)有多復(fù)雜。在納米技術(shù)的時代,鉆石可能比橡皮擦還便宜。


我們的身體也是原子組成的,衰老只是身體的組成物質(zhì)用舊了。庫茲韋爾提到由Wi-Fi連接的納米機(jī)器人在血液中流動,可以執(zhí)行很多人類健康相關(guān)的任務(wù),包括日常維修、替換死去的細(xì)胞等等。如果這項(xiàng)技術(shù)能夠被完美掌握,這個流程將能使人的身體永遠(yuǎn)健康,甚至越活越年輕。

超人工智能可以建造一個“年輕機(jī)器”,大腦和身體一樣,也可以更新。這些聽起來很離譜,但身體只是一堆原子罷了,只要超人工智能可以操縱各種原子結(jié)構(gòu)的話,這就完全不離譜。

庫茲韋爾還相信人造材料將越來越多地融入人體,人體器官會被先進(jìn)的機(jī)械器官代替,從而可以一直運(yùn)行。然后我們會重新設(shè)計(jì)身體,比如可以用自我驅(qū)動的納米機(jī)器人代替血紅細(xì)胞,這樣連心臟都可以省了。最終,人類會完全變成人工的。有一天當(dāng)我們回頭看到生物材料時,會覺得人體原來如此low過,居然會被微生物、意外和疾病殺死。

這個說法受到很多人的批評。但是,反對他的人不是說“這些事情不可能發(fā)生”,而是“到達(dá)超人工智能是很難的”,“低估了超人工智能的壞處。”

科學(xué)界中,大部分人認(rèn)為踩到絆線不是會不會的問題,而是時間早晚的問題。

? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? 庫庫茲韋爾在他的《奇點(diǎn)臨近》一書中預(yù)測這個時間點(diǎn)將是2045年。

再引入一根軸線:科學(xué)家對于超人工智能的態(tài)度是悲觀還是樂觀?極端一點(diǎn),就是讓人類滅亡還是永生這個問題上,大多數(shù)人集中在“焦慮大道”的區(qū)域。不算極度悲觀,但是絕對不樂觀。

那究竟是什么讓焦慮大道的人們?nèi)绱私箲]呢?

首先,廣義上來講,在創(chuàng)造超人工智能時,我們其實(shí)是在創(chuàng)造可能一件會改變所有事情的事物,但是我們對那個領(lǐng)域完全不清楚,也不知道我們到達(dá)那塊領(lǐng)域后會發(fā)生什么。所以很可能這是個毀滅性的黑天鵝事件,因?yàn)閷τ谖粗?,人類總是過于樂觀而低估了危害。

從達(dá)爾文的進(jìn)化論來看,創(chuàng)造比自身聰明的東西也很可能是個致命錯誤。就好像羊群決定哺育一只小狼,并且覺得小狼長大后會保護(hù)羊群。

當(dāng)你把“對那個領(lǐng)域完全不清楚”和“當(dāng)它發(fā)生時將會產(chǎn)生巨大的影響”結(jié)合在一起時,你創(chuàng)造出了一個很恐怖的詞——生存危機(jī)。

我們知道的是,人類對于地球的統(tǒng)治教給我們一個道理——智能就是力量。也就是說,一個超人工智能,一旦被創(chuàng)造出來,將是地球有史以來最強(qiáng)大的東西,而所有生物,包括人類,都只能屈居其下——而這一切,有可能在未來幾十年就發(fā)生。

當(dāng)一個超人工智能出生的時候,對我們來說就像一個全能的上帝降臨地球一般。

這時候我們所關(guān)心的就是:這是否會是一個仁慈的上帝?

蒂姆·厄班說其實(shí)答案很簡單——人工智能和電腦的思考方式一樣。我們?nèi)菀追傅囊粋€錯誤是,當(dāng)我們想到非常聰明的人工智能的時候,我們把它擬人化了,因?yàn)樵谌祟惖囊暯强磥?,能夠達(dá)到人類智能程度的只有人類。要理解超人工智能,我們要明白,它是非常聰明,但是完全異己的東西。

在人類心理中,我們把事情分成道德的和不道德的。但是這兩種只存在于人類行為之中。超出人類心理的范疇,道德(moral)和不道德(immoral)之外,更多的是非道德性(amoral)。而所有不是人類的,尤其是那些非生物的事物,默認(rèn)都是非道德性的。

這就是我們的下一個問題,人工智能的動機(jī)是什么?

答案也很簡單:我們給人工智能設(shè)定的目標(biāo)是什么,它的動機(jī)就是什么。

所以,我們已經(jīng)建立了前提,就是當(dāng)有了設(shè)定后,一個超人工智能是非道德性的,并且會努力實(shí)現(xiàn)它原本的被設(shè)定的目標(biāo),而這也是人工智能的危險所在了。

當(dāng)你要實(shí)現(xiàn)一個長期目標(biāo)時,你會先達(dá)成幾個子目標(biāo)來幫助你達(dá)成最終目標(biāo)——也就是墊腳石。這些墊腳石的學(xué)名叫手段目標(biāo)(instrumental goal),而在實(shí)現(xiàn)手段目標(biāo)時候一定是會造成傷害的。

如果人類對機(jī)器的控制妨礙了目標(biāo)達(dá)成,超人工智能會毫不猶豫地干掉人類,或象《黑客帝國》里那樣,把人類培養(yǎng)在容器里作為自己的能源,然后大腦接上管子創(chuàng)造一個虛擬現(xiàn)實(shí)。

? ? ? ? ? ? ? ? ? ? ? 《黑客帝國》

這不是因?yàn)樗遣坏赖碌幕蛘咝皭旱模且驗(yàn)閭θ祟愔皇撬_(dá)成自己目標(biāo)墊腳石而已,作為一個非道德性的生物,這是它很自然的考量。

人類說:“我們把超人工智能的插頭拔了不就行了?”

就好像蜘蛛說:“我們不給人類捉蟲的網(wǎng)把人類餓死不就行了?”

一旦超人工智能出現(xiàn),人類任何試圖控制它的行為都是可笑的。人類會用人類的智能級別思考,而超人工智能會用超人工智能級別思考。

當(dāng)我們結(jié)合達(dá)成目標(biāo)、非道德性、以及比人類聰明很多這些條件,好像所有的人工智能都會變成不友善的人工智能,除非一開始的代碼寫的很小心。

可惜的是,雖然寫一個友善的弱人工智能很簡單,但是寫一個能在變成超人工智能后依然友善的智能確實(shí)非常難的,甚至是不可能的。

在智能爆炸之前,人類就像把炸彈當(dāng)玩具的小孩一樣,我們的玩物和我們的不成熟之間有著極大的落差。超級智能是一個我們還很長一段時間內(nèi)都無法面對的挑戰(zhàn)。我們不知道炸彈什么時候會爆炸,哪怕我們能聽到炸彈的滴答聲。

目前,投資創(chuàng)新人工智能技術(shù)的錢,比投資人工智能安全研究的錢多很多。這不樂觀。

對于安全性的設(shè)定,著名的科幻小說家阿西莫夫提出的“機(jī)器人學(xué)三定律”被稱為“現(xiàn)代機(jī)器人學(xué)的基石。

? ? ? ? ? ? 《我,機(jī)器人》里提到機(jī)器人三定律

但是這個定律有個問題沒有解決,后來又補(bǔ)充了機(jī)器人零定律:

為什么后來要定出這條“零定律”呢?打個比方,為了維持國家或者說世界的整體秩序,我們制定法律,必須要執(zhí)行一些人的死刑。這種情況下,機(jī)器人該不該阻止死刑的執(zhí)行呢?顯然是不允許的,因?yàn)檫@樣就破壞了我們維持的秩序,也就是傷害了人類的整體利益。

很多人工智能和機(jī)器人領(lǐng)域的技術(shù)專家也認(rèn)同這個準(zhǔn)則,隨著技術(shù)的發(fā)展,三定律可能成為未來機(jī)器人的安全準(zhǔn)則。

新的阿西莫夫的機(jī)器人定律為:

第零定律:機(jī)器人必須保護(hù)人類的整體利益不受傷害。

第一定律:機(jī)器人不得傷害人類個體,或者目睹人類個體將遭受危險而袖手不管,除非這違反了機(jī)器人學(xué)第零定律。

第二定律:機(jī)器人必須服從人給予它的命令,當(dāng)該命令與第零定律或者第一定律沖突時例外。

第三定律:機(jī)器人在不違反第零、第一、第二定律的情況下要盡可能保護(hù)自己的生存。

但是問題又出來了:

三定律加上零定律,看來堪稱完美,但是,“人類的整體利益”這種混沌的概念,連人類自己都搞不明白,更不要說那些用0和1來想問題的機(jī)器人了。

威爾·史密斯曾說:“《我,機(jī)器人》的中心概念是機(jī)器人沒有問題,科技本身也不是問題,人類邏輯的極限才是真正的問題?!?/p>

蒂姆·厄班說:如果超人工智能真的在本世紀(jì)達(dá)成,而造成的影響真的如大部分專家預(yù)測的一樣極端而永久,我們肩上就真的是背負(fù)著巨大的責(zé)任。接下來幾百萬年的人們都靜靜地看著我們,希望我們不要搞砸。

所以,了解超級人工智能的人把它稱為人類的最后一項(xiàng)發(fā)明,最后一個挑戰(zhàn)。

這就像美劇《權(quán)力的游戲》,七國斗來斗去的都不是事兒,北面絕境長城之外的那些異鬼才是事兒。

[轉(zhuǎn)載于網(wǎng)絡(luò)]

?著作權(quán)歸作者所有,轉(zhuǎn)載或內(nèi)容合作請聯(lián)系作者
【社區(qū)內(nèi)容提示】社區(qū)部分內(nèi)容疑似由AI輔助生成,瀏覽時請結(jié)合常識與多方信息審慎甄別。
平臺聲明:文章內(nèi)容(如有圖片或視頻亦包括在內(nèi))由作者上傳并發(fā)布,文章內(nèi)容僅代表作者本人觀點(diǎn),簡書系信息發(fā)布平臺,僅提供信息存儲服務(wù)。

相關(guān)閱讀更多精彩內(nèi)容

友情鏈接更多精彩內(nèi)容