以人類道德標(biāo)準(zhǔn)來要求機器人,行嗎?
Gary Marcus與Robin Young均提及Isaac Asimov所建構(gòu)的機器人三大 法則,以這些法則在一個無人駕駛的汽車世界中意味著什么。例如,如果你的汽車在行經(jīng)一座橋梁時,剛好遇上一輛校車在你的面 前突然回轉(zhuǎn)。那么,您的無人駕駛汽車該救你還是校車上的一群學(xué)童?
不過,如果真的為所謂的“機器人道德”而感到傷腦筋其實也很可笑:因為它先認(rèn)定了人類的道德準(zhǔn)則最優(yōu)越且具普世價值,而事實上,他們和人類幾乎完全不相同,在文化上也各異其趣。
就算是每個人的價值觀也不盡相同。你曾經(jīng)和孩子或朋友們玩過道德游戲嗎?例如你提出了一個問題:“你會去偷食物來喂飽饑餓的家人嗎?”我想,并不是每個人都的答案都一樣。
從未來10年后的技術(shù)發(fā)展趨勢來看,我想屆時機器人的決策行為對于社會的影響可能比起今日的情況更好,對于道德倫理的考慮也會更不一樣。這一切可能會從自動偵測到駕駛?cè)撕忍嗑贫管囎訜o法發(fā)動開始。
隨著機器人技術(shù)變得更智能化、更“人性化”且更普及,還會出現(xiàn)更多我們無法想象的種種挑戰(zhàn)。未來針對機器人道德規(guī)則的制定將是不可避免的。
特別是Asimov在“機器人三大 法則”中的第一條規(guī)則更形重要:機器人不得傷害人類,或坐視人類受傷害。其次,機器人必須服從人類的命令。第三,在不違背第一法則及第二法則的情況下,機器人必須保護(hù)自己。
為什么呢?因為在某些情況下,機器人可能決定在必要時必須犧牲你,而拯救一群人,才是對社會最好的決定。
對于必須作出攸關(guān)生死決定的人而言,要建立或編寫這些規(guī)則是十分艱難的。也許我們應(yīng)該委托機器人來進(jìn)行。
你認(rèn)為呢?
編譯:Susan Hong