去年AI開始復(fù)興,無人駕駛技術(shù)不斷進步,語音識別走向完善,AI在圍棋上一展雄風(fēng),所有這些都說明機器已經(jīng)相當(dāng)強大。
在AI取得成功的同時,我們也要該留意它所犯的錯誤,以及何時犯了錯,避免未來造成惡劣影響。最近,路易斯維爾大學(xué)網(wǎng)絡(luò)安全實驗室(Cybersecurity Lab)主管Roman Yampolskiy發(fā)布一份報告,列出了AI歷史上出現(xiàn)的一些錯誤,他認(rèn)為,錯誤是AI系統(tǒng)在學(xué)習(xí)階段和執(zhí)行階段犯下的。
TechRepublic整理出2016年AI行業(yè)犯下的10大錯誤,這些錯誤有一些來自Roman Yampolskiy的報告,還參考了其它AI專家的意見。
1、用AI預(yù)測未來犯罪
Northpointe公司開發(fā)了一套AI系統(tǒng),它可以預(yù)測被指控罪犯再次違法的概率。這套算法遭到指責(zé),它可能存在種族歧視,與其它種族相比,黑人未來犯罪的機率更高,威脅性更大。還有一些媒體指出,不論種族如何,Northpointe軟件在一般情況下都無法準(zhǔn)確預(yù)測。
2、在視頻游戲中,非玩家控制的角色制作武器,超出了創(chuàng)作者的設(shè)計范圍
今年6月,AI視頻游戲《Elite: Dangerous 》出現(xiàn)一些怪事,這些怪事超出了創(chuàng)作者的預(yù)料:AI可以制作超級武器,它的攻擊范圍不屬于游戲的設(shè)計范疇。游戲網(wǎng)站評論說:“玩家可能會被拖入戰(zhàn)斗,敵方的戰(zhàn)艦裝備了超級超大的武器,瞬間就可以將他們切成碎片。”后來,游戲開發(fā)者將這些強大的武器刪除。
3、機器人讓小孩受傷
Knightscope制作了所謂的“打擊犯罪機器人”,今年7月,機器人在硅谷商場撞向小孩,導(dǎo)致16個月大的小孩受傷?!堵迳即墪r報》引用該公司的話稱,這是一件“奇怪的事故”。
4、特斯拉Autopilot導(dǎo)致車主死亡
Joshua Brown駕駛特斯拉汽車在路上行駛,當(dāng)時他啟動了Autopilot功能,結(jié)果汽車在佛羅里達高速公路與掛有拖車的卡車相撞,這是Autopilot第一次造成車主。事故發(fā)生之后,特斯拉對Autopilot進行升級,馬斯克聲稱該軟件本來應(yīng)該可以避免碰撞。Autopilot還在中國造成傷亡事故,雖然事故與AI系統(tǒng)并無直接關(guān)系。
5、微軟聊天機器人Tay發(fā)表種族主義、性別歧視言論,侮辱同性戀
微軟曾經(jīng)在Twitter推出聊天機器人Tay.ai,本意是想與年輕用戶建立聯(lián)系。Tay是以十幾歲的女孩作為原型設(shè)計的,結(jié)果她變成了推崇希特勒、抨擊女權(quán)主義的惡魔;剛剛上線一天就變成這樣。微軟將Tay從社交媒體平臺撤下,還說要對算法進行調(diào)整。
AI挑選出的選美贏家
6、AI成為選美比賽的評委,結(jié)果導(dǎo)致種族歧視
在第一屆由AI擔(dān)任評委的國際選美比賽中,機器人小組對選手的臉進行評判,算法可以精準(zhǔn)評估各項標(biāo)準(zhǔn),這些標(biāo)準(zhǔn)與人類對美、健康的感知聯(lián)系在一起。由于AI沒有經(jīng)歷過多樣化訓(xùn)練,最終比賽選出來的贏家全部是白人。Yampolskiy評價說:“美成為了模式識別器。”
7、《口袋妖怪Go》將玩家留在白人社區(qū)
7月份,《口袋妖怪Go》迅速走紅,一些用戶注意到,在主要的黑人社區(qū)缺少玩游戲的場所。Mint 首席數(shù)據(jù)官 Anu Tewary 認(rèn)為,之所以出現(xiàn)這樣的事情,主要是因為算法制作者沒有進行多樣化訓(xùn)練,他們沒有在這些社區(qū)投入時間。
8、谷歌AI系統(tǒng)AlphaGo在圍棋比賽第四局輸給了李世石
2016年3月,AlphaGo在5個回合的比賽中戰(zhàn)勝了李世石,他曾經(jīng)18次成為圍棋世界冠軍。雖然AI算法贏得對決,但是李世石贏下一局意味著AI算法仍然不是完美的。
新南威爾斯大學(xué)的人工智能教授 Toby Walsh認(rèn)為:“看起來李世石找到了蒙特卡洛樹搜索(MCTS)的弱點。”雖然這次失利可以視為AI的缺陷,但是Yampolskiy認(rèn)為這種失誤在允許范圍之內(nèi)。
9、中國面部識別研究可以預(yù)測犯罪,但是存在種族歧視
上海交通大學(xué)的兩名研究人員發(fā)布一份報告,報告的名稱叫作 “利用面部圖像自動進行犯罪推理”。Mirror報道稱,研究人員將1856個人的臉部圖像(當(dāng)中一半是暴力罪犯的臉)輸入計算機,然后分析。
研究人員得出結(jié)論稱,在預(yù)測犯罪時可以找到一些能夠識別的結(jié)構(gòu)特點,比如唇曲率、眼內(nèi)角距、口鼻角度等。行業(yè)人士對結(jié)果存在質(zhì)疑,他們還認(rèn)為該研究會與道德產(chǎn)生沖突。
10、保險公司用Facebook數(shù)據(jù)預(yù)測問題發(fā)生概率
英格蘭最大保險公司Admiral Insurance利用Facebook用戶發(fā)布的帖子,查找用戶使用社交媒體與能否成為好司機之間的關(guān)系。
這次實驗算不上是AI的失誤,它只是濫用了AI。新南威爾斯大學(xué)的人工智能教授 Toby Walsh認(rèn)為,F(xiàn)acebook封殺這一項目值得夸獎。這個項目名叫“firstcarquote”,它并沒有啟動,因為Facebook禁止公司獲以數(shù)據(jù)。
從這些案例可以看出,AI很容易就會變得偏激。用多樣化數(shù)據(jù)對機器學(xué)習(xí)算法進行訓(xùn)練,可以有效防止偏激產(chǎn)生。隨著AI功能越變越強大,確保研究項目得到有效檢查,用多樣化數(shù)據(jù)訓(xùn)練,讓研究符合倫理標(biāo)準(zhǔn),這些都是至關(guān)重要的事。
原文來自:techrepublic