未來學家認為AI將會比人類聰明數(shù)萬倍,對此你怎么看?

當AI比人類聰明數(shù)萬倍的時候,人類可能得與AI融合才能生存。

這句話不是我臆想出來的,而是伊普斯威奇的“未來學家”伊恩皮爾森在迪拜舉行的世界政府首腦會議上發(fā)表演講時提出的。此外,皮爾森還稱,人類可以通過把大腦和人工智能連接起來,從而使人類和AI具有相同的智商防止AI掌控人類。這個假設中人都成為了“半機器人”。

事實上,大約一半的人工智能社區(qū)認為,到2040年,計算機將和人類一樣聰明。2013年,兩名研究人員調(diào)查了數(shù)百名人工智能專家,他們認為達到人類水平一半的人工智能會有到來的時候。至于什么時候來呢?他們認為,答案的中位數(shù)要到2040年。

最近的另一項研究中,作者JamesBarrat簡單地問研究人員,人工智能達到人類水平要到什么時候。回答有2030年,2050年,2100年,或者永遠不會。最大的群體為42%,他們表示會在2030年之前到來。

人工智能水平發(fā)展到人類水平是一件危險的事情。一旦機器和人類一樣聰明,許多令人擔憂的事情就會發(fā)生。人工智能的發(fā)展幾乎不可能在那個時候停止,并且人工智能會不斷地成長改進升級。許多非常聰明的人包括斯蒂芬·霍金和埃隆·馬斯克-認為這種情況確實很可怕。“如果我不得不猜測我們最大的生存威脅是什么,那可能就是AI。所以我們需要非常小心?!?/p>

一旦人工智能比人類變得聰明我們將很難理解它。引用蒂姆·厄本的話:“黑猩猩可以知道人和摩天大樓是什么,但他永遠無法理解摩天大樓是由人類建造的,”他寫道,“我們永遠無法理解[超級人工智能]所能做的事情,即使機器試圖向我們解釋它”

研究人工智能的人群大致分為樂觀主義者和悲觀主義者。樂觀主義者希望有一天能發(fā)明出一種超級智慧,解決我們所能想象到的每一個問題,并帶領我們進入一個烏托邦式的未來。而悲觀主義者擔心,一個小小的錯誤將導致人類的迅速終結(jié)。比人類聰明數(shù)萬倍的AI最終給人類帶來的是滅絕還是更高層次的進步呢?悲觀的我覺得,我有生之年應該是看不到的了。

7???p"7????

?著作權(quán)歸作者所有,轉(zhuǎn)載或內(nèi)容合作請聯(lián)系作者
【社區(qū)內(nèi)容提示】社區(qū)部分內(nèi)容疑似由AI輔助生成,瀏覽時請結(jié)合常識與多方信息審慎甄別。
平臺聲明:文章內(nèi)容(如有圖片或視頻亦包括在內(nèi))由作者上傳并發(fā)布,文章內(nèi)容僅代表作者本人觀點,簡書系信息發(fā)布平臺,僅提供信息存儲服務。

相關閱讀更多精彩內(nèi)容

友情鏈接更多精彩內(nèi)容