去年年中,麻省理工學(xué)院媒體實(shí)驗(yàn)室(The MIT Media Lab)的一個(gè)三人團(tuán)隊(duì),聯(lián)手創(chuàng)造了世界上第一個(gè)惡魔人工智能——諾曼(Norman)。
諾曼本身是一個(gè)簡(jiǎn)單的人工智能,把圖像輸入給他,他就會(huì)輸出一段自己對(duì)這個(gè)圖像的描述文字。跟普通人工智能一樣,諾曼需要訓(xùn)練,而諾曼的整個(gè)訓(xùn)練過程,使用的都是來源于網(wǎng)絡(luò)上充滿消極情緒的圖片和文字描述,最終導(dǎo)致諾曼在對(duì)圖像進(jìn)行判斷的時(shí)候,所輸出的描述文字,都是消極的。
“諾曼”這個(gè)名字本身,就來源于希區(qū)柯克的經(jīng)典電影《驚魂記》中的變態(tài)旅館老板諾曼貝茲。
諾曼起初是為了研究精神病療演算法,通過這種療法研究精神病的治愈方式。但是但是進(jìn)一步的研究已經(jīng)超越了這個(gè)范疇。更多的人開始思考人工智能的偏見。
現(xiàn)實(shí)生活中的AI若受到有缺陷數(shù)據(jù)的訓(xùn)練,它們可能產(chǎn)生類似負(fù)面狀況,也就是產(chǎn)生偏見。
去年5月,美國(guó)法院用于評(píng)估囚犯風(fēng)險(xiǎn)的AI,被指出對(duì)黑人囚犯有偏見。微軟2016年發(fā)布的聊天AI,很快就被種族主義者帶壞,開始捍衛(wèi)某些人種至上主義,呼吁種族滅絕并表達(dá)出對(duì)希特勒的熱愛。
從偏見產(chǎn)生的根源看,其實(shí)只要是經(jīng)過人篩選的數(shù)據(jù)本身就帶有人的主觀性,同時(shí)也很難把一個(gè)范疇內(nèi)所有客觀情況都輸入給人工智能,所以進(jìn)入到人工智能的數(shù)據(jù),本身就是主觀的。事實(shí)上也很難把兩個(gè)人為的觀念完全區(qū)分開來。所以偏見其實(shí)是客觀存在的,很難根除,假設(shè)我們接受人工智能的偏見,那我們?cè)趺唇鉀Q人工智能的偏見?
諾曼的研究人員給出了一個(gè)想法:希望更多的人,對(duì)諾曼的積極訓(xùn)練改變它的魔鬼思想,馴化為天使的思想。
從人工智能可以訓(xùn)練的角度來看,人工智能是肯定可以被訓(xùn)練的,但是它的魔鬼的部分,還是有可能會(huì)重新顯現(xiàn)出來。原因,就是它經(jīng)過了1萬(wàn)次的魔鬼訓(xùn)練,再經(jīng)過一千萬(wàn)次天使訓(xùn)練之后,它可能還是有殘留魔鬼的思想。
由于訓(xùn)練本身是一個(gè)黑箱,我們其實(shí)沒法直接判斷這個(gè)黑箱里面全部信息到底還有沒有魔鬼的部分。
阻斷療法:
最簡(jiǎn)單,最直接的方法,就是放棄這個(gè)人工智能,不再使用這個(gè)人工智能,就好像判了一個(gè)人工智能死刑。徹底清空并重新訓(xùn)練人工智能。
為什么是放棄整個(gè)人工智能?我們知道,由于人工智能是一個(gè)黑箱,人工智能其實(shí)是一個(gè)獨(dú)立的智能,一個(gè)完整的人工智能,我們沒法分隔它所知道的知識(shí)。
但是當(dāng)這個(gè)人工智能本身,存在一些有價(jià)值的判斷的時(shí)候呢?直接清除掉,就把有價(jià)值的部分也清除掉了,可能不是最好的辦法。
反觀我們?nèi)祟愂澜?,人類面?duì)一個(gè)惡魔,法律的最高懲罰,其實(shí)就是清除他。而這個(gè)法律的依據(jù),就是人類自古就有的一報(bào)還一報(bào)思想。
疏通療法:
指尖科技說編者這個(gè)時(shí)候,想起兩個(gè)人:裘千仞和弗蘭克
《神雕俠侶》中的裘千仞心機(jī)算盡,被認(rèn)為是小人和險(xiǎn)惡的代表,但是在他抱著宿敵的嬰兒小郭襄的時(shí)候,本來可以一掌報(bào)仇,卻在被黃蓉設(shè)計(jì)偷走小郭襄后,一刻頓悟,從此皈依佛門。如果覺得這個(gè)例子,只是小說,那我們看看真實(shí)的案例。
弗蘭克·阿巴內(nèi)爾就是真實(shí)案例,他16歲就開始偽造銀行支票,騙取多國(guó)銀行的250萬(wàn)美元并被多國(guó)通緝,他假扮老師給學(xué)生上課,假扮醫(yī)生給病人開藥、假扮飛行員與空姐談戀愛。入獄后在獄中協(xié)助破案,最終出獄后和美國(guó)政府機(jī)關(guān)合作,成就了一個(gè)著名的安全顧問公司。
裘千仞的頓悟,滔天局騙的改過自新,都說明人類意識(shí)的改變,可以讓人刷新整個(gè)意識(shí)體系。
這其中有一個(gè)非常關(guān)鍵的因素:人類的大腦,可以同時(shí)存在兩種相互矛盾的思想,而無礙于其處世行事。
這正是心理學(xué)家托利得提出的托利得定理。
于是我們可以嘗試思考:人工智能可以同時(shí)存在兩種完全矛盾的思想,并仍然無礙于其處世行事嗎?
指尖科技說小編現(xiàn)在只能想到一種實(shí)現(xiàn)方案:就是給人工智能一個(gè)高級(jí)的控制機(jī)制。
在人工智能的高一個(gè)層次,進(jìn)行控制。小編也認(rèn)為只有這種方法,才能徹底解決人工智能傾向性問題。
而現(xiàn)階段,人工智能技術(shù)并非不能做到,就是在人工智能基礎(chǔ)上多做一層人工智能道德篩選。
例如諾曼得到了惡魔的思想,我們卻在后面一層進(jìn)一步分析諾曼得到的結(jié)果,是否合適人類意志,如果具有明顯的傾向性,我們就排除掉。
但指尖科技說小編也承認(rèn),這并非最好的解決方案。最好的解決方案肯定是在人工智能黑箱里直接進(jìn)行高一級(jí)的控制,這樣是最高效的。
假設(shè)人工智能偏見這個(gè)問題解決了,我們就不用再害怕我們給到人工智能的是有偏見的數(shù)據(jù)。甚至可以把這個(gè)技術(shù)運(yùn)用到人類身上,使用腦機(jī)接口判斷人類思想,然后進(jìn)行進(jìn)一步控制。從而讓一些罪犯,從大腦思想上改變自身,而不僅是肉體上的清除。