“機器人”越來越能干,并已進入人們的生活。法新社18日說,2008年,全球共出售550萬臺機器人,估計今后兩年銷量將翻一番,達到1150萬臺。
19日,英國謝菲爾德大學(xué)教授、人工智能專家諾埃爾·夏基在美國《科學(xué)》雜志上發(fā)表《機器人的道德前沿》一文,呼吁各國政府應(yīng)該盡快聯(lián)手出臺機器人道德規(guī)范。
-機器人保姆
給你貼心服務(wù)的保姆
如今,機器人在家政、護理、醫(yī)療等方面的作用越來越大。
英國《每日電訊報》10日報道,33歲的加拿大人勒忠,設(shè)計制造了一個叫“愛子”的“機器人女友”,可以照顧家庭、24小時不休息地干家務(wù),照料主人生活的各方面,還能與主人的朋友交流。
在日本、韓國等一些國家和地區(qū),機器人被用于充當(dāng)人類日常生活的幫手,至少有14家公司已經(jīng)可以提供“機器人保姆”服務(wù)。這些機器人,會認(rèn)人,會和孩童玩耍,替老人解悶,甚至?xí)皨故臁钡亟o老年人或殘疾人喂飯。
在中國香港中文大學(xué)醫(yī)學(xué)院,有機器人會給人做微創(chuàng)技術(shù)的手術(shù)。韓國政府的一份最新報告預(yù)測,機器人在2018年將可以為病人施行普通手術(shù)。
這些保姆是有危險的
目前機器人的價格,比1990年已下降了近80%。韓國科學(xué)家預(yù)測,到2015年至2020年,每個韓國家庭將擁有一個機器人。有專家估計,到2020年日本將有25%的人口年齡超過65歲,護理型機器人將供不應(yīng)求。
但諾埃爾·夏基認(rèn)為這些“保姆”會威脅到主人。
他在《機器人的道德前沿》一文中說,機器人進入人類家庭,給一些“較虛弱的群體”帶來很大的威脅,如老人和孩童。這很危險,可能會出現(xiàn)道德危機。
很多父母因為忙,可能選擇“機器人保姆”來照顧孩子。問題是,如果一個孩子長期與機器人接觸,缺乏父母的情感呵護和悉心照顧,可能會變得“冷漠、麻木,與社會接觸少,有被隔離的感覺”。
夏基在猴子身上做過實驗。結(jié)果發(fā)現(xiàn),被機器人照顧長大的幼猴,“無法與其他同類交流或交配”。
夏基的擔(dān)心是多方面的。比如,人類對機器人的長時間使用;機器人出現(xiàn)問題時可能出現(xiàn)對它的“毆打”,或者破壞零件;對機器人產(chǎn)生情感依賴時對它的軟件改寫與破壞等等。
有這種擔(dān)心的不僅夏基一個人。韓國信息通訊部機器人研發(fā)小組負(fù)責(zé)人說:“一些人可能對與機器人交談感興趣,甚至還會上癮,就像很多人對上網(wǎng)上癮一樣。”
-機器人道德規(guī)范
擔(dān)心的倫理道德問題
夏基針對的實際上是制造和使用機器人的人。他認(rèn)為,像影片《我是機器人》和《終結(jié)者》中出現(xiàn)人類與機器人對峙的局面,現(xiàn)實生活中不一定會發(fā)生。
他說:“我不認(rèn)為機器人會控制人類。它們只是電腦零件組裝的機器而已,并沒有思維。只有科幻電影才會這么寫?!?/p>
夏基擔(dān)心的是人類在使用機器人時遇到的倫理道德問題。他強烈建議,各國政府聯(lián)手制定一套道德規(guī)范,而不是“各自為陣,互不通氣”。
他說,如果各國政府不盡快出臺機器人道德規(guī)范,那么老人和孩童的安全得不到保證,他們的生活,可能只能由機器人制造商和忙碌的父母掌握。
“不能等到機器人已經(jīng)開始大規(guī)模使用,才后悔,這應(yīng)該在機器人批量生產(chǎn)前,就出臺規(guī)范機器人的行為,給他們規(guī)范道德守則?!?/p>
機器人三原則
其實人們早就提出過機器人道德規(guī)范問題。
1940年,美國科幻作家伊薩克·阿西莫夫提出著名的“機器人三原則”:
一、“機器人不得危害人類”;
二、“必須服從人類的命令”;
三、“在不違反第一條和第二條的情況下必須保護自己”。
日本為了保護人類在使用機器人過程中不被傷害,起草過一份60多頁的文件,名為《下一代機器人安全問題指導(dǎo)方針(草案)》,起草的是包括企業(yè)界人士、科學(xué)家、政府官員以及律師在內(nèi)的一個專業(yè)團隊。
文件說:“生產(chǎn)廠家必須在機器人身上裝上足夠多的傳感器,防止失足撞上人類;機器人應(yīng)該使用更軟、更輕的材料,從而減少對人類的可能傷害;在機器人身上裝按鈕,一旦機器人發(fā)狂,人類可以通過觸按這些按鈕及時將它們馴服,各種與機器人有關(guān)的法規(guī)已經(jīng)出現(xiàn)?!?/p>
韓國也起草過《機器人道德憲章》,主要內(nèi)容是:確保人類對機器人的控制、保護機器人獲得的數(shù)據(jù),并防止違法使用機器人,并準(zhǔn)備將道德標(biāo)準(zhǔn)裝入計算機程序,以防止人類虐待機器人。
這些文件,從某種意義上來說,是對阿西莫夫“機器人三原則”的細(xì)化。
打造有道德的軍事機器人?
鑒于軍事機器人的特殊性,韓國起草文件時,將軍事機器人排除在外。
上月底英國《每日電訊報》報道,美國國防部斥巨資開發(fā)戰(zhàn)爭機器人時,雇用了道德規(guī)范領(lǐng)域的英國專家,協(xié)助研制不會違反《日內(nèi)瓦公約》的新型戰(zhàn)爭機器人。這種機器人能夠自主辨別何時、向誰開槍,能夠識別救護車和平民。
不過夏基教授說:“聽到這個設(shè)想我不禁打了個寒戰(zhàn)。我已經(jīng)在人工智能領(lǐng)域工作多年,但讓機器人來決定人類的終結(jié),這種想法太可怕了?!?br />