
讀了阿西莫夫的短篇機器人系列《我,機器人》,那個著名的機器人三大定律一直圍繞在腦海,除了贊嘆作者的想象力外,還深深地為此著迷。
一、機器人三大定律:
LawⅠ:A ROBOT MAY NOT INJURE A HUMAN BEING OR, THROUGH INACTION, ALLOW A HUMAN BEING TO COME TO HARM.
第一定律:機器人不得傷害人類個體,或者目睹人類個體將遭受危險而袖手不管
LawⅡ:A ROBOT MUST OBEY ORDERS GIVEN IT BY HUMAN BEINGS EXCEPT WHERE SUCH ORDERS WOULD CONFLICT WITH THE FIRST LAW.
第二定律:機器人必須服從人給予它的命令,當(dāng)該命令與第零定律或者第一定律沖突時例外
LawⅢ:A ROBOT MUST PROTECT ITS OWN EXISTENCE AS LONG AS SUCH PROTECTION DOES NOT CONFLICT WITH THE FIRST OR SECOND LAW.
第三定律:機器人在不違反第零、第一、第二定律的情況下要盡可能保護自己的生存
小說中是這樣闡述的,這三大定律是在制作正電子腦的時候被植入的,每個定律之間的選擇根據(jù)電壓來決定。
二、三大定律與人類的道德
本來一直百思不得其解,為什么作者要給機器人設(shè)立這樣一個三大定律,而且還是環(huán)環(huán)相扣,到底作者是怎么思考的,等看完了《證據(jù)》這一篇后,有所明白了。
故事的大致情節(jié)是這樣的,有兩個哥們想競選市長,奎因和機器人拜厄利,奎因懷疑拜厄就是一個機器人,但沒有證據(jù),所以請了機器人公司的機器人心理師蘇珊來找出拜厄利是個機器人的證據(jù),但蘇珊說,她可能可以證明拜厄利是個人(高尚的人),而不能倒過來證明他是機器人。
理由:機器人學(xué)三定律,同時也是世界上大多數(shù)道德規(guī)范的最基本的指導(dǎo)原則。
每個人都有自我保護的本能。 對機器人來說,這就是它的第三定律。
每一個具有社會良心 和責(zé)任感的‘正派’人,他都要服從于某種權(quán)威。他聽從自己 的醫(yī)生、自己的主人、自己的政府、自己的精神病醫(yī)師、自 己的同胞的意見;他奉公守法、依習(xí)隨俗、遵守禮節(jié),甚至 當(dāng)這一切影響到他個人的安逸或安全時,他也恪守不渝。對 于機器人來說,這就是它的第二定律。
每一個“高尚的”人,都應(yīng)像愛自己一樣去愛別人,保護自己的同志,為救他人而不惜自己的生命。這對機器人來說,就是它的第一 定律。
簡而言之,如果拜厄利履行這幾條定律,那么,他既可能是個機器人,又可能是這樣一個高尚的人。
我又移情考慮了一下,三大定律與孔子的“仁”,蘇格拉底的“正義”到底又有何異同?
三、三大定律的缺陷
如果我想讓機器人殺人,該怎么做?比如,讓機器人給人下毒,我會這樣下命令:
1、機器人,把這個毒藥放到那杯水里,我要做個試驗,完了會倒掉。機器人一想,沒有違反任何三大定律,照做了。
2、機器人,把剛才的記憶刪除。機器人一想,它得聽我的話(第二定律),我這個命令沒有違反三大定律,于是又照做了。
3、機器人,某人要喝水了,機器人把那杯有毒的水端給了他,他掛了。
所以當(dāng)我把命令拆成幾條都無害的命令后,機器人就傻了,這個就象小娜和SIRI,當(dāng)你給了兩個命令,如果它沒有上下文的理解能力的話,那效果就差強人意的。
我是哪兒黑,國慶游玩途中勿忘點喜歡!