人工智能技術(shù)為預(yù)防犯罪帶來了巨大的希望
對許多人來說,使用人工智能來預(yù)防犯罪和幫助給罪犯定罪可能看起來像科幻電影中的場景。然而,英國的警察部門—包括達勒姆(Durham)、肯特(Kent)和南威爾士(South Wales) —已經(jīng)在使用面部識別和行為軟件在真正的犯罪發(fā)生之前,就采取預(yù)防措施。計算機評估框架正被用于通知拘禁和量刑決策。這項技術(shù)帶來了巨大的希望,可也幾乎有著同等程度的黑暗反烏托邦的前景。
這引發(fā)了幾個道德問題。例如,預(yù)測性警務(wù)往往依賴于社區(qū)或警察巡邏隊報告的犯罪記錄,這可能導(dǎo)致反饋循環(huán)并在已經(jīng)得到嚴格監(jiān)管的社區(qū)中加強執(zhí)法。鑒于有報道稱Met的自動面部識別技術(shù)誤報率為98%,因此對準(zhǔn)確性也存在擔(dān)憂。因此,我們必須小心警方資源被用于實際威脅,而不是被感知的威脅。
我們都知道,與人類一樣,技術(shù)也會犯錯誤,并且經(jīng)常會對有色人種和女性表現(xiàn)出不公平的偏見。美國的風(fēng)險評估算法,例如美國的替代性制裁懲教罪犯管理資料(Correctional Offender Management Profiling for AlternaTIve SancTIons ,COMPAS)被發(fā)現(xiàn)間接含有強烈的種族偏見,這意味著黑人被告被錯誤分類的可能性幾乎是同等情況的白人的兩倍。對于那些因為這些系統(tǒng)的大規(guī)模應(yīng)用而處于不利地位的人來說,這不僅僅是不道德的,也是不可接受的。
面部識別是其中一個高侵入性的方面。在使用時,目標(biāo)對象在不知情或未經(jīng)同意的情況下就被攝入系統(tǒng)。例如,過去用于預(yù)測罪犯“典型”面孔的軟件依賴于社交媒體、關(guān)系、社交活動、學(xué)校日程安排以及來自數(shù)據(jù)經(jīng)紀(jì)人的商業(yè)數(shù)據(jù)。與喊停和搜查等傳統(tǒng)警務(wù)方法的官僚控制相比,這些工具進行預(yù)測的方式以及警察部門使用這些系統(tǒng)的做法并不透明。重要的是要確保將類似的操作規(guī)范納入機器中。
另一個需要審查的領(lǐng)域是使用評估框架或算法進行量刑。一些人工智能系統(tǒng)可以根據(jù)個人的歷史和他們的傷害傾向來預(yù)測未來的犯罪行為。在美國,賓夕法尼亞州可能是最早一個不僅根據(jù)人們犯下的罪行做出刑事判決的州之一,量刑還要參考他們在未來犯下其他罪行的可能性。統(tǒng)計衍生的風(fēng)險評估——基于年齡、犯罪記錄和就業(yè)等因素——將幫助法官確定判決。這一觀點認為,這將有助于降低監(jiān)獄系統(tǒng)的成本和負擔(dān)。
由于預(yù)算緊張和犯罪率不斷上升,更廣泛地使用人工智能程序協(xié)助預(yù)測犯罪行為可能具有優(yōu)勢。然而,我們必須確保系統(tǒng)公平透明,而現(xiàn)在我們?nèi)匀豢梢宰龅竭@一點。也許實現(xiàn)這一點最好的辦法是建立一個監(jiān)管人工智能的國際委員會,各個國家和消費者可以參與這些系統(tǒng)的發(fā)展,并確保行為守則和法律達到國際人權(quán)標(biāo)準(zhǔn)規(guī)定的門檻。
將道德責(zé)任融入機器似乎是一項艱巨的任務(wù),但這是拯救這個勇敢的新技術(shù)世界的唯一途徑,使它不至于演變成一種反諷的夢魘。