人工智能技術(shù)的巨大潛力,需更多監(jiān)督
研究人員表示,有關(guān)社會(huì)、倫理和政治方面的擔(dān)憂正在加劇,人工智能急需更多監(jiān)督??萍夹袠I(yè)的專家警告稱,人工智能(AI)的新興領(lǐng)域可能會(huì)引發(fā)公眾的強(qiáng)烈反對(duì),因?yàn)樗饾u落入私營企業(yè)之手,威脅到人們的工作,并在沒有有效監(jiān)管或監(jiān)管控制的情況下運(yùn)行。
在有關(guān)人工智能的新系列報(bào)道中,行業(yè)內(nèi)專家們強(qiáng)調(diào)了這項(xiàng)技術(shù)的巨大潛力,該技術(shù)已加快科學(xué)和醫(yī)學(xué)研究的步伐,還使城市運(yùn)行更加順暢,提高企業(yè)效率。
盡管人工智能革命前途似錦,但在缺乏監(jiān)管機(jī)構(gòu)、立法機(jī)構(gòu)和政府監(jiān)管的情況下,人們對(duì)該技術(shù)的發(fā)展有著越來越多的社會(huì)、倫理和政治方面的擔(dān)憂。研究人員說到
人們的強(qiáng)烈抵制可能會(huì)減少人工智能帶來的好處。
人才流失到私營企業(yè)不利于高校發(fā)展。
專業(yè)知識(shí)和財(cái)富集中在少數(shù)幾家公司手中。
這個(gè)領(lǐng)域存在著巨大的多樣性問題。
今年,南安普敦大學(xué)計(jì)算機(jī)科學(xué)教授溫迪·霍爾爵士聯(lián)合主持了一份有關(guān)英國人工智能行業(yè)的獨(dú)立評(píng)估報(bào)告。報(bào)告發(fā)現(xiàn),人工智能有可能在2035年之前為經(jīng)濟(jì)增收6300億英鎊。但她說,要想獲得回報(bào),這項(xiàng)技術(shù)必須造福社會(huì)。
她說,“人工智能將影響我們基礎(chǔ)設(shè)施的方方面面,我們必須確保它有利于我們,必須考慮得面面俱到。當(dāng)機(jī)器可以為自己學(xué)習(xí)和做事時(shí),我們?nèi)祟惿鐣?huì)面臨的危險(xiǎn)又是什么?這很重要,能夠理解這些問題的國家將成為下一次工業(yè)革命的贏家。”
如今,開發(fā)安全、合乎倫理的人工智能的責(zé)任幾乎完全落在了建造它們的公司身上。然而目前并沒有測試標(biāo)準(zhǔn),也沒有任何組織能夠監(jiān)控和調(diào)查任何人工智能作出的不好決定或發(fā)生的事故。
紐約大學(xué)當(dāng)代人工智能研究所的聯(lián)席主任凱特·克勞福德說:“我們需要有強(qiáng)大的獨(dú)立機(jī)構(gòu),以及專門的專家和知識(shí)淵博的研究人員,他們可以充當(dāng)監(jiān)督者,讓大公司對(duì)高標(biāo)準(zhǔn)負(fù)責(zé)。這些系統(tǒng)正在成為新的基礎(chǔ)設(shè)施,重要的是,它們既要安全又能保證公平。”
許多現(xiàn)代的人工智能都是通過在海量數(shù)據(jù)集中經(jīng)過訓(xùn)練后再做出決策。但是,如果數(shù)據(jù)本身包含了偏見,那么這些數(shù)據(jù)會(huì)被人工智能繼承和不斷重復(fù)。
今年早些時(shí)候,一個(gè)用來解析語言的人工智能被發(fā)現(xiàn)顯示了性別和種族偏見。另一個(gè)則是用于圖像識(shí)別的人工智能,它將廚師歸類為女性,即使是在給禿頂男人拍照時(shí)也是如此。許多其他機(jī)構(gòu),包括在警務(wù)和囚犯風(fēng)險(xiǎn)評(píng)估中使用的工具,已被證實(shí)有歧視黑人的傾向。
該行業(yè)存在嚴(yán)重的多樣性問題,部分原因歸結(jié)于人工智能歧視女性和少數(shù)族裔。在谷歌和臉書(Facebook)公司,五分之四的技術(shù)員工是男性。白人男性在人工智能領(lǐng)域占據(jù)主導(dǎo)地位,開發(fā)出了只針對(duì)男性身體的健康應(yīng)用,將黑人稱為大猩猩的照片服務(wù),以及無法識(shí)別女性聲音的語音識(shí)別系統(tǒng)。霍爾說:“軟件應(yīng)該由多元化的員工來設(shè)計(jì),而不是普通的白人男性,因?yàn)槲覀儾徽撃信仙?、種族背景,都會(huì)成為用戶。”
測試不佳或出現(xiàn)使用故障的人工智能也同樣令人擔(dān)憂。去年,當(dāng)特斯拉一款Model S的自動(dòng)駕駛汽車的自動(dòng)駕駛系統(tǒng)由于沒能看到一輛卡車穿過高速公路時(shí),導(dǎo)致了車內(nèi)的美國司機(jī)死亡。美國國家運(yùn)輸安全委員會(huì)對(duì)特斯拉這起致命車禍進(jìn)行了調(diào)查,批評(píng)特斯拉發(fā)布了一套缺乏足夠防護(hù)措施的自動(dòng)駕駛系統(tǒng)。該公司的首席執(zhí)行官埃倫·馬斯克是對(duì)人工智能安全與監(jiān)管最為積極的倡導(dǎo)者之一。
然而,隨著人們?cè)谟摎W公投和2016年美國大選的準(zhǔn)備階段的使用出現(xiàn)了嚴(yán)重的問題,使用人工智能系統(tǒng)來操縱民眾引發(fā)了越來越多的擔(dān)憂。新南威爾士大學(xué)人工智能教授托比·沃爾什說:“一場技術(shù)軍備競賽正在進(jìn)行,就看誰能影響選民”。他最近寫了一本關(guān)于人工智能的書,名為《機(jī)器人的夢(mèng)想》。
“我們制定了一些規(guī)則,限制了影響人們以特定的方式進(jìn)行投票的可花費(fèi)的數(shù)量。我覺得我們會(huì)有新的限制規(guī)則,限制你可以利用多少技術(shù)來影響人們。”
即便是在規(guī)模較小的情況下,操縱行為也會(huì)造成問題。馬克·沃爾伯特說:“從某種程度上來說,我們的日常生活被人工智能解決方案所操縱”。他是前政府首席科學(xué)家,現(xiàn)在領(lǐng)導(dǎo)著英國新的超級(jí)研究委員會(huì)——英國研究和創(chuàng)新委員會(huì)(UK Research and InnovaTIon)。“在某種程度上,如果組織的行為讓大量公眾感到不安,它可能會(huì)引發(fā)人們的強(qiáng)烈反對(duì)。”
主要的人工智能研究人員向英國上議院人工智能委員會(huì)表達(dá)了類似的擔(dān)憂,該委員會(huì)正在對(duì)人工智能的經(jīng)濟(jì)、倫理和社會(huì)影響進(jìn)行調(diào)查。作為人工智能研究的主要大學(xué)之一,倫敦帝國理工學(xué)院提交的證據(jù)警告說,對(duì)該技術(shù)的監(jiān)管不足“可能會(huì)引起社會(huì)的強(qiáng)烈反響,如果發(fā)生嚴(yán)重的事故或過程失控,可能會(huì)出現(xiàn)類似于反轉(zhuǎn)基因食品的狀況”。
倫敦大學(xué)學(xué)院的科學(xué)家們也對(duì)可能出現(xiàn)類似于之前強(qiáng)烈抵制反轉(zhuǎn)基因食物的狀況表示擔(dān)憂,他們?cè)趯?shí)證中對(duì)同行們說:“如果大量人工智能的案例發(fā)展得很糟糕,可能會(huì)引起公眾的強(qiáng)烈反對(duì),就像曾發(fā)生的轉(zhuǎn)基因生物事件那樣。”
但科學(xué)家表示,對(duì)社會(huì)影響最大的可能是人工智能。英國央行首席經(jīng)濟(jì)學(xué)家警告稱,到2035年,英國將有15個(gè)工作崗位實(shí)現(xiàn)自動(dòng)化,這意味著英國政府需要進(jìn)行大規(guī)模的員工再培訓(xùn),以避免失業(yè)率大幅上升。根據(jù)帝國理工學(xué)院的情感和行為計(jì)算教授瑪雅·潘蒂奇的說法,短期的破壞可能會(huì)引發(fā)社會(huì)動(dòng)蕩,也可能會(huì)讓人工智能利益所引發(fā)的不平等現(xiàn)象蔓延至少數(shù)跨國公司。
美國人工智能協(xié)會(huì)主席蘇巴拉奧·卡姆巴哈帕蒂表示,盡管技術(shù)經(jīng)常造福社會(huì),但它并非總是公平公正地讓全社會(huì)共享福利。他說:“最近的技術(shù)進(jìn)步導(dǎo)致財(cái)富的集中程度大大提高。我當(dāng)然關(guān)心人工智能技術(shù)對(duì)財(cái)富集中度、不平等現(xiàn)象,以及如何讓福利覆蓋面范圍更廣帶來的影響。”
工業(yè)領(lǐng)域人工智能研究的激增,推動(dòng)了對(duì)有資質(zhì)的科學(xué)家的巨大需求。在英國的大學(xué)里,博士和博士后都被科技公司吸引,他們提供的薪水是學(xué)術(shù)界的兩到五倍。盡管一些高校科研機(jī)構(gòu)正著手應(yīng)對(duì)科技公司招聘熱潮,但有些機(jī)構(gòu)卻無動(dòng)于衷。在需求最為強(qiáng)烈的部門,資深學(xué)者擔(dān)心,他們將失去一代人才,能以傳統(tǒng)方式推動(dòng)研究和教育未來的學(xué)生的人才。
根據(jù)潘蒂奇的說法,學(xué)術(shù)界最優(yōu)秀的人才正被四大人工智能公司,即蘋果、亞馬遜、谷歌和Facebook所吸引。她說,這種情況可能導(dǎo)致90%的創(chuàng)新為這些公司所有,因此權(quán)力的天平將從國家轉(zhuǎn)移到少數(shù)跨國公司。
沃爾伯特負(fù)責(zé)監(jiān)督幾乎所有英國科學(xué)研究的公共資金,他對(duì)于控制人工智能會(huì)阻礙研究這一看法持謹(jǐn)慎態(tài)度。相反,他認(rèn)為,人工智能工具一旦投入使用,就應(yīng)該仔細(xì)監(jiān)控,以便及早發(fā)現(xiàn)問題。
他說:“如果你不持續(xù)監(jiān)測,你就有可能在人工智能發(fā)生故障時(shí)有漏掉某些信息的可能。在新的世界里,我們當(dāng)然應(yīng)該努力進(jìn)行持續(xù)的實(shí)時(shí)監(jiān)控,這樣人們就能及時(shí)知道是否有任何事與愿違或出乎意料的事情將要發(fā)生。”
根據(jù)愛丁堡大學(xué)計(jì)算機(jī)視覺教授羅伯特·費(fèi)舍爾的說法,:“理論上,公司應(yīng)該承擔(dān)責(zé)任,但現(xiàn)在處在一個(gè)灰色地帶,他們可以說自己的產(chǎn)品運(yùn)作正常,是云端出現(xiàn)錯(cuò)誤,或者是電信供應(yīng)商的問題,反正他們都不會(huì)同意自己要對(duì)此負(fù)責(zé)。顯然這是一個(gè)全新的領(lǐng)域。人工智能讓我們可以利用自己的智力,所以我們會(huì)嘗試去做一些更有野心的事情。而這也意味著我們可能會(huì)面臨更大范圍的災(zāi)難。”