我不過是想有個玩伴——談社交機械人的倫理學(xué)

剛過去的十月, 沙特阿拉伯破天荒成為首個給予機械人公民權(quán)的國家,沙特亦因給予「女性」機械人 Sophia 國籍及公民權(quán)而引來大量討論。當(dāng)中不止是因為作風(fēng)一向保守的沙特突然讓「女性」機械人升格成為公民(別忘了沙特最近才決定于2018 年6 月將女性駕駛汽車合法化),亦是因為將機械人視為公民會帶來無法預(yù)測的法律后果。雖然我們幾乎可以肯定沙特把 Sophia 升格為公民的舉動只不過是個演給世界看的公關(guān)技倆,實際上未必因此帶來重大影響。但隨著人工智能及機械人科技的發(fā)展,我們可以預(yù)視世界即將要面對及回應(yīng)機械人在我們的政治、社會及日常生活中帶來的各種問題。尤其是當(dāng)機械人遂漸融入我們的生活,以及我們需要更常與機械人進行互動之際;這又會為我們帶來怎樣的價值挑戰(zhàn)?

最理想的社交機械人——多拉A夢


相信也沒有誰會對多拉A夢的故事感到陌生。一只來自未來世界的的機械貓和廢柴男主角大雄成為朋友;這個多拉A夢,其實應(yīng)該就是世界各地機械人研究人員最渴望能夠研發(fā)出來的社交機械人(social robot)。

在現(xiàn)有研究里面,有幾個不同概念幫助我們?nèi)ソ槎ê沃^社交機械人[1],例如:

(1)社交喚醒力(socially evocative): 機械人設(shè)計利用人類慣于把物件「擬人化」的特性促使他們對機械人投入感情。

(2)社會境遇性(socially situated):機械人能夠理解與回應(yīng)它所處身的社會情境,尤其是它需要能夠在行動時區(qū)別出社會行動者(social agents)與非社會行動者。

(3)社交力(sociable):機械人能夠主動與人互動,并滿足人們的社交和心靈需要。

(4)社交智慧(socially intelligent):機械人能夠展現(xiàn)出人類形式的社交智慧。

任以上任何一個概念,擁有自然感情、充斥自我意識,并能夠流暢地與各人互動,產(chǎn)生感情,以至結(jié)交朋友的多拉A夢肯定是最理想的社交機械人。

然而現(xiàn)實世界里面,到底社交機械人會在多久的未來才會擁有接近人類的感情和知覺?甚至,到底它們有沒有可能達到這種形態(tài)?雖然社交機械人的發(fā)展方向和局限還是未知之?dāng)?shù),但這毫不阻止各大生產(chǎn)商開發(fā)這類社交機械人的欲望??v使現(xiàn)時有限的科技還未可以做出一只多拉A夢,但這些還未完全完美的社交機械人還是陸續(xù)的出現(xiàn)在我們面前;例如,SONY 即將推出的新一代 AIBO 機械人。

機械人朋友是種危險妄想?

為我們解決問題的多拉A夢,又怎會成為問題所在?社交機械人的出現(xiàn)并不簡單如一頭未來機械貓用時空機穿越到現(xiàn)代。在此,我們可以先看澳洲哲學(xué)家 Robert Sparrow 的看法。 [2][3][4] Sparrow 斷定把社交機械人當(dāng)成我們的玩伴是一種道德錯誤,因為社交機械人會成為我們切實地認(rèn)識與接受世界的障礙。當(dāng)然,他并不全完否定社交機械人可能為人們帶來便利,甚至(精神)健康及福祉;畢竟,能夠和社交機械人交談、分享及和與它玩游戲,總比一個人寂寞來得愜意。但別忘記,社交機械人利用了人們慣于把感情投射到物件的特性使我們錯誤認(rèn)為自己正在與它切實地交流,并給予它關(guān)心、視它為朋友。我們對社交機械人所表現(xiàn)出的關(guān)心和友誼,極其量是來自錯覺或欺騙。而且,人們對物件投入真感情亦似乎未見恰當(dāng)。也難怪 Sparrow 認(rèn)為,社交機械人生產(chǎn)商鼓勵人們?nèi)ソ邮苌缃粰C械人為其玩伴是一種危險妄想。

再者,這些社交機械人更可能阻礙我們理解「關(guān)心」及「羈絆」的真正意義。事實上我們可以在有需要時才啟動社交機械人,并在感到煩躁、麻煩或再無需要的時候立即關(guān)掉它;但,真正的「關(guān)心」、「羈絆」并不是單向關(guān)系;這些必然雙向的關(guān)系亦是人與人(或,人與寵物)及人與社交機械人的最大分別。

社交機械人與社會政策

除了個人道德價值問題,Sparrow 指出社交機械人在政策層面亦會帶來負面影響。如果社交機械人被應(yīng)用在解決兒童及長者照顧服務(wù)問題上,這不過是把照顧兒童及長者的責(zé)任視作一種技術(shù)性問題,并以一個純科技的方法作出解決。就算社交機械人緩解了兒童及長者的需要,這種以科技化解問題的方案卻無正視問題背后的各種因素;這種做法治標(biāo)不治本。因為我們真切需要考慮的是:如何令家長及兒女有更多時間和心力去照顧孩子和長者,而并非單以機械人來取締人類。

社交機械人帶來的各種價值問題當(dāng)然有值得爭議的地方。維也納大學(xué)的 Mark Coeckelbergh 指出,若人們與社交機械人的關(guān)系是妄想時,它的確會帶來負面的道德價值。但是,并非每個人都會誤把自己與機械人的關(guān)系當(dāng)作人與人之間關(guān)系。一個神智清醒的正常人應(yīng)該可以完全分辨出真實和虛擬情況。正因為大部分人都可以清楚區(qū)分社交機械人所給予的「關(guān)心」和「友誼」只是一種虛擬感情關(guān)系,因此Sparrow 上述所提及的「社交機械人將是種危險妄想」亦不能成立;因為Sparrow 的論證假設(shè)了用家們并不能夠分辨什么是真實、什么是虛擬。 [5]

這個時候我們亦可提出另一個疑問:究竟是不是所有欺騙均在道德上不被允許?要是我們從義務(wù)論(尤其是康德式的義務(wù)論)觀點出發(fā):所有的欺騙大抵都不被允許。但要是我們換成其他觀點,如效益主義式的思考來進行考慮,這些欺騙亦非完全不能接受,畢竟我們明白到(或不能否認(rèn))社會上的確有人能夠從與機械人的互動里獲得快樂。我們甚至可以質(zhì)疑健康的人際關(guān)系是否真的容不下欺騙,試想像:父母跟小朋友撒謊說藥水并不苦澀又是否代表父母對子女沒有表現(xiàn)出真正的關(guān)心?這個簡單的例子說明了關(guān)心與欺騙并非不能共存。 [6]

當(dāng)然,以上并沒有回應(yīng)到社交機械人涉及的政策問題,而筆者亦認(rèn)同我們有需要考慮使用社交機械人是否只是治標(biāo)不治本。但這又是否一個禁止使用社交機械人的良好理由?要知道這些社交機械人的應(yīng)用是多樣化的,因此,我們更需要考慮的是如何設(shè)計及應(yīng)用社交機械人,使它們協(xié)助我們體現(xiàn)關(guān)心與友情的價值。

參考資料

1. Kerstin Dautenhahn (2007). Socially intelligent robots: dimensions of human-robot interaction. Philosophical Transactions of the Royal Society B: Biological Sciences 362, 679-704.

2. Robert Sparrow (2002). The march of the robot dogs. Ethics and Information Technology 4, 305-318.

3. Robert Sparrow & Linda Sparrow (2006). In the hands of machines? The future of aged care. Minds and Machines 16, 141-161.

4. 有關(guān)社交機械人來帶的其他倫理挑戰(zhàn),可參考 Amanda Sharkey & Noel Sharkey (2012) Granny and the robots: ethical issues in robot care for the elderly. Ethics and Information Technology 14, 27-40.

5. Mark Coeckelbergh (2012). Care robots, virtual virtue, and the best possible life. In The Good Life in a Technological Age, New York/London: Routledge, 281-292.

6. Mark Coeckelbergh (2016). Care robots and the future of ICT-mediated elderly care: a response to doom scenarios. AI & Society 31, 455-462.

?著作權(quán)歸作者所有,轉(zhuǎn)載或內(nèi)容合作請聯(lián)系作者
【社區(qū)內(nèi)容提示】社區(qū)部分內(nèi)容疑似由AI輔助生成,瀏覽時請結(jié)合常識與多方信息審慎甄別。
平臺聲明:文章內(nèi)容(如有圖片或視頻亦包括在內(nèi))由作者上傳并發(fā)布,文章內(nèi)容僅代表作者本人觀點,簡書系信息發(fā)布平臺,僅提供信息存儲服務(wù)。

相關(guān)閱讀更多精彩內(nèi)容

友情鏈接更多精彩內(nèi)容