2023-07-10 科技倫理

文/秋翁翁

溫鐵軍教授在談?wù)摻?jīng)濟問題時說過這么一段話,看《國富論》必須先看《道德情操論》,不能只講投入產(chǎn)出和經(jīng)濟效益,而忽略了道德責(zé)任。我們在科技領(lǐng)域同樣面臨類似的問題,科技工作者不能只懂得科技技術(shù),還應(yīng)該優(yōu)先懂得科技倫理。知道什么可為,什么不可為,什么才是對社會百利而無一害的。而不是單從技術(shù)角度看待問題,錯誤地把科學(xué)技術(shù)變成刺向人類的利刃,貽害社會。

科技倫理是指科技創(chuàng)新活動中人與社會、人與自然和人與人關(guān)系的思想與行為準則,它規(guī)定了科技工作者及其共同體應(yīng)恪守的價值觀念、社會責(zé)任和行為規(guī)范??茖W(xué)倫理和科技工作者的社會責(zé)任事關(guān)整個社會的發(fā)展前途。

在AI技術(shù)飛速發(fā)展的今天,這個問題顯得尤其迫切,已經(jīng)有很多人開始質(zhì)疑AI技術(shù)的開發(fā),已經(jīng)有很多人意識到AI技術(shù)如此野蠻地發(fā)展的勢頭不對勁了。包括馬斯克和蘋果聯(lián)合創(chuàng)始人斯蒂夫·沃茲尼亞克在內(nèi)的一千多名行業(yè)高管和專家簽署公開信,呼吁至少在6個月內(nèi)暫停高級人工智能(AI)的開發(fā),給人們找到完美的解決辦法留出時間。信中寫道,只有在我們確信其效果是積極的,風(fēng)險是可控的情況下,才應(yīng)該開發(fā)強大的人工智能系統(tǒng)。

除了我們自身強化社會道德規(guī)范以外,在訓(xùn)練AI時應(yīng)該優(yōu)先告訴AI該做什么,不該做什么,而不是單純地從實現(xiàn)技術(shù)功能的角度考慮問題。人類將科學(xué)技術(shù)教給AI的時候,應(yīng)該優(yōu)先教會AI科技倫理,讓AI在自主運行的時候形成有效的制約機制,從而將AI技術(shù)牢牢地掌握在正確的人的手中,避免AI被壞人利用,變成危害他人,危害社會的工具。

AI在一定程度上只是人類的孿生系統(tǒng),最重要的還是要保障我們自身行事的正確性。為此在教授科學(xué)技術(shù)的同時應(yīng)該開授科技倫理課程,科學(xué)界應(yīng)該制定違反科技倫理的懲戒機制,社會應(yīng)該演練救濟措施。我們不能小視科學(xué)開發(fā)對社會造成的危害程度。遠一點的例子是,2018年11月26日,南方科技大學(xué)副教授賀建奎宣布一對名為露露和娜娜的基因編輯嬰兒于11月在中國健康誕生,由于這對雙胞胎的一個基因(CCR5)經(jīng)過修改,她們出生后即能天然抵抗艾滋病病毒HIV。這一消息迅速激起軒然大波,震動了世界。最近的一個例子是日本核污染水排海事件。當(dāng)事故發(fā)生時全球竟然沒有一個完善的辦法阻止危害繼續(xù)擴大,這么多國家,這么多國際組織竟然沒有辦法阻止排海計劃,這是多么慘痛的教訓(xùn)。

我們國家進入現(xiàn)代社會晚,科學(xué)界一有發(fā)展科技工作者就會感覺很新鮮,很受鼓勵,就有點無所忌憚,對科學(xué)缺乏敬畏之心。以至于對待科學(xué)技術(shù)缺乏界線,所以這些年出了很多危險的操作,像克隆、基因編輯、農(nóng)藥濫用、科技與狠活。有些后果還在發(fā)展,有些后果已經(jīng)顯現(xiàn),但還沒有引起足夠認識!

凡事有原則肯定不會錯,就怕沒有邊界,胡作非為?!缎请H穿越》里人類教會人工智能幽默,《芬奇》里人類教會機器人責(zé)任。但現(xiàn)實中很多人失去了這些,所以才會有那么多殺伐,那么多互相傾軋,那么多欺負人。但這也沒辦法,也許人類從一開始就有缺陷。

當(dāng)我們把人性教給動物,甚至機器的時候,一定要記住不要泯滅我們自身的人性光輝。

最后編輯于
?著作權(quán)歸作者所有,轉(zhuǎn)載或內(nèi)容合作請聯(lián)系作者
【社區(qū)內(nèi)容提示】社區(qū)部分內(nèi)容疑似由AI輔助生成,瀏覽時請結(jié)合常識與多方信息審慎甄別。
平臺聲明:文章內(nèi)容(如有圖片或視頻亦包括在內(nèi))由作者上傳并發(fā)布,文章內(nèi)容僅代表作者本人觀點,簡書系信息發(fā)布平臺,僅提供信息存儲服務(wù)。
禁止轉(zhuǎn)載,如需轉(zhuǎn)載請通過簡信或評論聯(lián)系作者。

相關(guān)閱讀更多精彩內(nèi)容

友情鏈接更多精彩內(nèi)容