人工智能(AI)的發(fā)展正在走上一個(gè)快車道,這里有技術(shù)積淀走到爆發(fā)點(diǎn)的問題,也有資本力量推波助瀾的原因。對(duì)于普通人,這些問題或許不用關(guān)注,但AI的發(fā)展還是可以為普通人所耳熟能詳。自Google的AlphaGo(按其原義應(yīng)該是“阿爾法圍棋”,但媒體普遍叫它“阿爾法狗”也是別有風(fēng)味)一戰(zhàn)成名開始,我們事實(shí)上已經(jīng)在開始接受與熟悉有AI作為一部分的世界了。
但這種背景下,有一個(gè)問題值得關(guān)注,那就是計(jì)算倫理,或者叫“算法倫理”也可以。因?yàn)槿斯ぶ悄茏鳛橐环N計(jì)算機(jī)程序,實(shí)質(zhì)上是受開發(fā)者的算法邏輯與倫理操持所決定的。從現(xiàn)實(shí)的情況來看,“大數(shù)據(jù)殺熟”(利用大數(shù)據(jù)對(duì)于一些熟客進(jìn)行用戶畫像,推送的服務(wù)價(jià)格高于新用戶的價(jià)值,比如X程被曝光的那個(gè)事例)等事件也提醒我們要關(guān)注這背后的倫理與道德——這鍋不能直接讓AI背。
相比較大數(shù)據(jù)殺熟,更值得關(guān)注計(jì)算倫理的一個(gè)領(lǐng)域,我一直認(rèn)為是無人駕駛。在說明這個(gè)原因之前,先推薦一本書,英國人戴維·埃德蒙茲所著的《你會(huì)殺死那個(gè)胖子嗎?》。

此書一開始就拋出了一些倫理學(xué)領(lǐng)域的思想實(shí)驗(yàn),第一個(gè)就是電車實(shí)驗(yàn),當(dāng)然它也有不同版本。第一個(gè)版本是:如果你是軌道電車的司機(jī),發(fā)現(xiàn)制動(dòng)閥失靈了,你只能在前方雙叉路口選擇一個(gè)方向,但一邊的軌道上有5個(gè)人,另一邊是1個(gè)人,假設(shè)他們都被綁在軌道上,你會(huì)選擇開往哪里?
好吧,大多數(shù)人都會(huì)選擇人少的一邊——“兩害相權(quán)取其輕”。那么接下去問題又來了,現(xiàn)在你不是電車司機(jī)了。但你在天橋上看到一輛電車失靈沖過來,前方軌道上有5個(gè)人,這時(shí)天橋上有個(gè)胖子在看風(fēng)景,他的塊頭非常之大,以至于你要是將他推下天橋落到軌道上,可以阻攔電車的繼續(xù)行進(jìn),那么,你會(huì)殺死那個(gè)胖子嗎?
這類倫理學(xué)方面的兩難問題,其實(shí)是很難找到各方認(rèn)同的答案的,從領(lǐng)域發(fā)展的角度來說,它的作用是在進(jìn)行思想鍛煉的同時(shí),拷問人類倫理道德規(guī)則的底線,從而去推動(dòng)這個(gè)領(lǐng)域的發(fā)展。但是在人工智能領(lǐng)域,這個(gè)問題就不一樣,因?yàn)槟惚仨殞?duì)此類問題有一個(gè)明確的主張。因?yàn)?,假設(shè)無人駕駛的汽車在路口遇到電車問題時(shí),那么它到底應(yīng)不應(yīng)該殺死那個(gè)胖子呢?