或許我真是個(gè)多愁善感的家伙。交代下周五和傻兮兮聊的人工智能話題。
我們從人工智能是否會(huì)在未來(lái)存在情緒展開,聊到情緒就意味著人情味,意味著人性,這當(dāng)然是一個(gè)機(jī)器不該有的只能屬于人類的特征。人類的大腦有感情中樞,所以有人性底線和情緒起伏的遏制,人類才會(huì)犯錯(cuò)或者知道自己錯(cuò)了。所有人都知道當(dāng)錯(cuò)誤大到一定程度時(shí)再有權(quán)勢(shì)或扭曲的人也會(huì)選擇放棄和自殺,比如希特勒。但人工智能沒(méi)有情緒,它們的可怕之處可能就在于碰到問(wèn)題會(huì)過(guò)于冷靜,沒(méi)有是非觀沒(méi)有情感底線是能讓所有可以繼續(xù)的事情以極端理性的方式進(jìn)行到人類所有情感底線之外很遠(yuǎn)的。它不會(huì)意識(shí)到自己錯(cuò)的,除非人類一開始就把識(shí)別錯(cuò)誤的智能寫進(jìn)代碼里??墒裁词菍?duì)錯(cuò),人工智能要如何取舍判斷?這又會(huì)是一個(gè)沒(méi)有盡頭的故事。要么人類能時(shí)時(shí)掌控人工智能的每次升級(jí)和進(jìn)步。
已經(jīng)有專家在說(shuō),人工智能在設(shè)計(jì)編寫上要充分體現(xiàn)程序員作為人的各種原則,可惜人類價(jià)值觀多種多樣,很難衡量界定清楚完善。
人類未來(lái)是否會(huì)對(duì)屆時(shí)的高級(jí)人工智能失控?如果有一開始的人為作用讓人工智能刻意隱藏自身實(shí)力怎么辦?因?yàn)槿祟愒絹?lái)越仰賴人工智能認(rèn)識(shí)自己,但人工智能不能從情感上區(qū)分不同生命體,這個(gè)一開始最基本起碼的機(jī)器特征會(huì)否讓人類反而越來(lái)越偏離自然的掌控?最后會(huì)有什么后果?還有那些初衷是拉近人類距離,方便彼此交流的人工智能軟件會(huì)讓人們?cè)绞桦x還是越親近?