寫在前面的話
我們都在心驚膽戰(zhàn)的求生,我們都在憂心忡忡的求存,我們都在孤獨(dú)無望的期待,我們都有罪。
技術(shù)的進(jìn)步,刺激了人們的欲望,欲望的膨脹又促進(jìn)了技術(shù)的發(fā)展,我們在這種詭異交織中迅猛發(fā)展了幾百年,至少在今天看來這種詭異的交織還是良性循環(huán)。從納斯達(dá)克創(chuàng)立到現(xiàn)在的指數(shù)就可以看出這一點(diǎn),雖然偶有泡沫,但是整體依然上揚(yáng)。
因?yàn)榧夹g(shù)的進(jìn)步,隨時(shí)可以放大人性的善和惡。一個(gè)例子就是,奴隸制的終結(jié)有可能是因技術(shù)的進(jìn)步提高了生產(chǎn)力,而不是完全由于林肯這種先驅(qū)偉人?;蛘邠Q種說法,是因?yàn)榧夹g(shù)的進(jìn)步提高了生產(chǎn)力,而消滅了奴隸這個(gè)職業(yè)。
技術(shù)發(fā)展到今天,面對即將到來的人工智能時(shí)代,我們要思考的一個(gè)問題是,如果人工智能在可控的范圍內(nèi)可以滿足人類的一切需求,人類是否還要努力求存?
人類越感知到世界的簡單明了越有安全感,換句話說,陌生的就是危險(xiǎn)的,熟悉的才是安全的。人類偉大的思想家們總會(huì)從復(fù)雜的世界抽象出簡單明了的規(guī)律和法則,幫助其他"弱智"的人類進(jìn)步和更好的認(rèn)識(shí)世界,其實(shí),我是不想學(xué)習(xí)的,可是為了生存,不學(xué)習(xí)就沒有辦法熟悉這些法則,不熟悉這些法則,我就不會(huì)被潛規(guī)則,我不被潛規(guī)則就不能換取和這個(gè)社會(huì)友好的協(xié)作,我沒有友好的協(xié)作,我就不能很好生存。
截止目前來看我們從這種模式中受益無窮??纯粗R(shí)大爆炸和幾次工業(yè)革命以及互聯(lián)網(wǎng)革命對你生活的影響,你是不是應(yīng)該感謝他們呢?
可是,我們慢慢的繁衍了幾百萬年,基因得到了很好的廣泛的傳播,仿佛我們是這個(gè)地球一丟丟的主宰!中間有些許挫折和無恥的戰(zhàn)爭的余音還回蕩在歷史的天空。這幾百萬年對造物主和地球或者宇宙來說,簡直是白駒過隙一般歡快。不是什么大不了的時(shí)間尺度。
轉(zhuǎn)眼間到了人類歷史的一個(gè)時(shí)間節(jié)點(diǎn)---公元2016年3月,有個(gè)叫g(shù)oogle的公司放出來一個(gè)阿爾法狗,在代表人類頂級(jí)智力的賽場上輕松戰(zhàn)勝了有個(gè)叫李世石的人類物種。他落敗了,帶著人類對自身進(jìn)化的優(yōu)越感落敗了,那一天將銘記在整個(gè)碳基生命的進(jìn)化史冊上---公元2016年3月15日。這是代表最高碳基生命智力水平的人類用自己的智力給自己的智力潑了一盆冷水。
讓我們看看世界上頗具影響力的科技企業(yè)家還有科學(xué)家對人類發(fā)出的警告:
霍金:
“對于人類來說,強(qiáng)大AI的出現(xiàn)可能是最美妙的事,也可能是最糟糕的事,我們真的不知道結(jié)局會(huì)怎樣?!?br>
比爾蓋茨:
“如果我們能夠很好地駕馭,機(jī)器能夠?yàn)槿祟愒旄?,但如果若干年后機(jī)器發(fā)展得足夠智能就將成為人類的心頭大患?!?br>
埃隆馬斯克:
“人類面臨的威脅并非來自殺手機(jī)器人,而是更加強(qiáng)大、更加集中化的人工智能。人工智能的關(guān)鍵在于,它們并不是機(jī)器人,而是一種計(jì)算機(jī)算法。機(jī)器人只是一堆傳感器元件,而人工智能則構(gòu)成了強(qiáng)大的網(wǎng)絡(luò)。如果只是算法失控,人類和人工智能便可以攜手加以控制。但一旦集中化的大型人工智能系統(tǒng)決意攻占世界,我們就無力阻止了?!?br>
既然世界上最有錢,最聰明,最勇敢的三個(gè)爺們給出了要警惕人工智能的警告,我們就不得不重視了。生存或死亡,這確實(shí)是個(gè)問題。
我覺得要想明白這個(gè)問題,最終得回到一個(gè)基本的問題上,即能量的爭奪和分配方式。在可以看得見的未來,人工智能存在的方式是以"硅基生命"的方式存在的,其他生物幾乎都是以"碳基生命"的形式存在的,無論何種形式,要維持某種"有意識(shí)"的組合形式,都要用能量維持它的"焓"。解決好能量分配問題,可能是人類與人工智能相處的唯一可行途徑。
不要問外星人在哪里,也許當(dāng)人工智能出現(xiàn)的那天,它符合人類對外星人的一切想象!