人工智能打造憤怒機(jī)器人:百萬憤怒客戶互動(dòng)數(shù)據(jù)
電影《終結(jié)者》中的殺手機(jī)器人
電影《機(jī)械姬》(Ex Machina)探討了機(jī)器人意識(shí)的問題
瑞士正在開發(fā)一種能為自身考慮并表達(dá)情感的機(jī)器
舉止行為類似人類的機(jī)器人——如電影《我,機(jī)器人》呈現(xiàn)的那些——不大可能成為人類的威脅 新浪科技訊 北京時(shí)間5月27日消息,據(jù)國外媒體報(bào)道,這聽起來似乎是末日科幻電影的題材。一家新西蘭的人工智能公司正在研制世界上最憤怒的機(jī)器人,其目的是幫助各種商業(yè)公司理解和安撫憤怒的顧客。這家名為Touchpoint的公司已經(jīng)在該項(xiàng)目上投入了超過23萬英鎊,預(yù)計(jì)在今年年底就可見到成品。
那么,我們是否應(yīng)該開始為機(jī)器人革命做準(zhǔn)備了呢?還不至于。
機(jī)器人只能模擬憤怒
盡管有所爭議,但Touchpoint公司的機(jī)器人并不會(huì)感受到真切的憤怒。相反,開發(fā)者在這些機(jī)器人的數(shù)據(jù)庫中上傳了數(shù)百萬憤怒客戶的互動(dòng)數(shù)據(jù),機(jī)器人被設(shè)定為模擬和重復(fù)這些客戶的對(duì)話。斯圖爾特·阿姆斯特朗(Stuart Armstrong)博士是牛津大學(xué)牛津馬丁學(xué)院人類未來研究所的研究員,他表示憤怒是機(jī)器人相對(duì)較容易模仿的感情之一。
阿姆斯特朗說:“人類的憤怒并沒有太多分別。如果某人憤怒了,他可能只會(huì)厲聲地辱罵你,其中的互動(dòng)關(guān)系并沒有太多微妙之處,你不需要處理任何復(fù)雜的信息。憤怒很容易模仿,不需要進(jìn)行深究。”
Touchpoint公司的憤怒機(jī)器人將只能表達(dá)基本的憤怒行為,而且與真實(shí)人類的憤 怒行為具有顯著不同。阿姆斯特朗解釋道:“我們?yōu)槭裁磿?huì)害怕憤怒的人?因?yàn)樗麄兛赡軙?huì)做出某些愚蠢的事情,或者大打出手。機(jī)器人并不會(huì)去毆打電話另一端的 人,或者在推特上傳播憤怒的消息。它們不會(huì)做出你想象中真實(shí)人類憤怒時(shí)會(huì)做出的事情——除非它們的程序設(shè)定為那樣。憤怒是純粹情景式的。機(jī)器人擁有情感的 一個(gè)跡象是,它們做出了一些我們以為只有人類會(huì)做,但并沒有程序設(shè)定的事。”
真正可怕的機(jī)器人不會(huì)顯露情感
理論上,我們有朝一日能研制出展現(xiàn)人類所有憤怒特征的機(jī)器人。當(dāng)模擬的情感和意識(shí)與真實(shí)的情感和意識(shí)無法區(qū)分的時(shí)候,就會(huì)出現(xiàn)復(fù)雜的哲學(xué)爭論。如果機(jī)器人能完全模擬人類的意識(shí),并對(duì)同樣的事件做出相同的情緒回應(yīng),我們還能認(rèn)為它們沒有意識(shí)嗎?
當(dāng)然,如此先進(jìn)的機(jī)器人只是假設(shè)的產(chǎn)物,我們或許會(huì)在本世紀(jì)末看到它成為現(xiàn)實(shí),但下一個(gè)十年還不可能出現(xiàn)。而且,即使我們制造出了一個(gè)憤怒的、跟人一樣的機(jī)器人,它帶來的威脅可能比那些毫無情緒的機(jī)器人小得多。
阿姆斯特朗博士說:“如果我們可以在機(jī)器人身上制造出真實(shí)的憤怒 情緒,那已有的知識(shí)就會(huì)提醒我們,這個(gè)機(jī)器人很危險(xiǎn),它不能用在擁有權(quán)力的位置上。”而且,居心不良的編程者也會(huì)有意地避免憤怒機(jī)器人。“如果你希望造成 傷害,那就制造出一個(gè)殺手機(jī)器人,但不要讓它憤怒。你會(huì)希望避免向所有人傳達(dá)出危險(xiǎn)的信號(hào)。”阿姆斯特朗說道。
與此相反,沒有任何人類情緒特征的機(jī)器人(假設(shè)的,只存在于遙遠(yuǎn) 未來)能制造出更大的威脅。人類的演化背景告訴我們,要做好應(yīng)對(duì)憤怒者的準(zhǔn)備,并知道是否要信任他們。相比那些沒有顯露出情緒的機(jī)器人,我們在面對(duì)一個(gè)像 人類一樣的憤怒機(jī)器人時(shí)具有更多的經(jīng)驗(yàn)。真正危險(xiǎn)的,是那些不會(huì)對(duì)人類任何行為做出回應(yīng)的機(jī)器人。
我們是否要擔(dān)心人工智能?
盡管憤怒機(jī)器人還沒有成為威脅,但阿姆斯特朗博士稱,要預(yù)測人工 智能是否會(huì)最終對(duì)人類造成傷害是極其困難的。“人工智能本身會(huì)使我們對(duì)地球的統(tǒng)治成為可能,潛在的更高智能可能會(huì)帶來更大的能力,”他說,“人工智能會(huì)變 得極為強(qiáng)勢,之后它們的喜好會(huì)影響未來的走勢。如果這些喜好與有關(guān)人類的利益毫無關(guān)系,那事情最終就可能對(duì)我們非常不利。”
不過,盡管未來數(shù)十年內(nèi)人工智能會(huì)變得越來越強(qiáng)勢,但它們是否會(huì) 達(dá)到顯著威脅人類的程度還存在很大變數(shù)。對(duì)計(jì)算機(jī)科學(xué)家來說,人工智能的威脅是一個(gè)“技術(shù)問題”。方法之一,是將人類的價(jià)值觀分類并編程,毫無疑問這將是 非常困難的任務(wù)。“相比如何說明這些價(jià)值觀,以及對(duì)其編程,人類內(nèi)部的價(jià)值觀差異幾乎不值一提。你必須在計(jì)算機(jī)編碼中解決所有的道德倫理問題。”阿姆斯特 朗博士說道。
阿姆斯特朗博士正在研究另一種方法,即通過設(shè)定“減少影響”的程 序,使機(jī)器人對(duì)人類更加安全。他解釋道:“如果你設(shè)定讓機(jī)器人移除腫瘤,那在腫瘤移除之后,它可能還會(huì)立刻切掉患者的腿。它的移除腫瘤的動(dòng)機(jī)并不安全。但 是,如果你設(shè)定它移除腫瘤,并對(duì)人只產(chǎn)生很小的影響,那它就會(huì)以不那么激烈的方式移除掉腫瘤。因此我們通過‘減少影響’的設(shè)定,使一些不安全的目標(biāo)變得安 全。如果進(jìn)行了這樣的設(shè)定,機(jī)器人就不會(huì)做出太大的改變,許多價(jià)值觀也會(huì)變得更加安全。”
人工智能的未來還充滿著極大的不確定性,像阿姆斯特朗博士這樣的計(jì)算機(jī)科學(xué)家正在努力確保我們免受危險(xiǎn)機(jī)器人的威脅。當(dāng)然,到目前為止,新西蘭公司的憤怒機(jī)器人并沒有表現(xiàn)出任何威脅,科幻電影中的恐怖情節(jié)還遠(yuǎn)沒有成為現(xiàn)實(shí)。[!--empirenews.page--]