硅谷時間4月22日晚,在斯坦??扇菁{約2000人的超級大演講廳,以這兩本暢銷書享譽全球的以色列著名歷史學(xué)家尤瓦爾?赫拉利,與斯坦福一個多月前神秘成立的“以人為本”AI研究院領(lǐng)導(dǎo)者李飛飛,展開了一場以人工智能為主題的對話。
在論戰(zhàn)里,有一個他們激烈爭論的問題,是人工智能是否會代替人類,成為決策的主體。
赫拉利設(shè)想,按照人工智能現(xiàn)狀發(fā)展的趨勢,總有一天,人工智能會比你自己還了解自己。到那個時候,人是不是就要把所有的決策權(quán),都讓渡出來呢?你在哪工作、能學(xué)什么專業(yè),甚至是跟誰約會結(jié)婚,這樣的決定,由最了解你的那一方來做,是不是更好呢?而且我們也不需要算法完美的了解我們自己才去做決定。我們只需要算法比我們自己多了解自己多一點點,就能做這件事了。這么一來,算法在未來社會,不就成了掌握決策權(quán)的老大哥了么?而且,誰掌握了這樣的算法,誰就有了控制整個社會的工具。赫拉利認為這是一個危險的趨勢。
而李飛飛說,當我們考慮這些哲學(xué)層面的問題時候,好像整個世界唯一存在的就是兩個群體:一個是強大無比的人工智能,另一個就是創(chuàng)造了這些強大人工智能的一小撮人。但是,真是的社會遠比這個要復(fù)雜,這里面有跨國的合作、有法律政策,有道德條款等等,總之,除了算法以外,還有很多玩家和規(guī)則。如果不是因為這些玩家和規(guī)則的存在,那過去不是有很多技術(shù)發(fā)明都能對人類造成毀滅性的破壞么?槍支、原子彈、生物科技等。就連我們最基礎(chǔ)的技術(shù)發(fā)明,火,那不也是既能生火做飯,也能引發(fā)火災(zāi)么?所以任何一種技術(shù)都是一把雙刃劍,就看它在什么條件下被使用。這就需要社會里的各個玩家和規(guī)則發(fā)揮作用了。不能把算法的運行空間想象成一個真空,能毫不受限制的向各個領(lǐng)域延伸觸角。
人工智能的倫理問題,由來已久,一直被討論,并且將繼續(xù)被討論下去,或許永遠沒有完結(jié)的時候,因為人工智能在發(fā)展,而我們對人工智能的認識、我們?nèi)祟愖约旱纳鐣止?、組織形式也在不斷變化,這些發(fā)展與變化的結(jié)果,必然會決定人工智能在多大范圍、多深的程度上影響我們的生活。對于未來,我們只能拭目以待。。。。