人工智能工具正在影響生活和自由
警察部隊(duì)和法院使用新一代人工智能工具來(lái)確定要巡邏的社區(qū)、構(gòu)成重大威脅的個(gè)人,并幫助法官準(zhǔn)予保釋和宣判。
在過(guò)去的幾年里,人工智能、神經(jīng)網(wǎng)絡(luò)和機(jī)器學(xué)習(xí)的進(jìn)步幾乎觸及了人類生活的方方面面。許多行業(yè)、政府和研究機(jī)構(gòu)都加入了人工智能的行列,以提高性能、提供新的更好的服務(wù)以及設(shè)計(jì)新的產(chǎn)品和應(yīng)用。
在工業(yè)領(lǐng)域,人工智能和機(jī)器學(xué)習(xí)正在推動(dòng)生產(chǎn)、產(chǎn)品開(kāi)發(fā)、物流、維護(hù)和企業(yè)效率其他方面的新方法。
在醫(yī)療保健領(lǐng)域,人工智能和機(jī)器學(xué)習(xí)正在幫助診斷、發(fā)現(xiàn)藥物與不同條件之間的關(guān)系,并加快新藥開(kāi)發(fā)。沒(méi)有它,我們可能仍在等待 Covid-19 疫苗。
雖然上述改進(jìn)主要是積極的,但在其他社會(huì)方面使用人工智能會(huì)產(chǎn)生許多無(wú)法預(yù)料的后果。例如,人工智能目前用于篩選工作申請(qǐng),確定誰(shuí)應(yīng)該和誰(shuí)不應(yīng)該接受面試;金融機(jī)構(gòu)越來(lái)越多地使用機(jī)器學(xué)習(xí)來(lái)提供算法來(lái)評(píng)估信用度,保險(xiǎn)公司使用人工智能來(lái)調(diào)整保費(fèi)。
雖然這些方法可以提高性能和更好的投資回報(bào),但相同的算法直接影響數(shù)百萬(wàn)人的生活,人工智能將其視為數(shù)據(jù)庫(kù)中的數(shù)字和個(gè)人資料。
監(jiān)視和執(zhí)法
不幸的是,這種使用人工智能影響人類生活的趨勢(shì)并不止于此。近年來(lái),執(zhí)法部門(mén)和法院正在使用人工智能和機(jī)器學(xué)習(xí)來(lái)確定如何在不同地區(qū)分配警察部隊(duì)、哪些人更有可能犯罪、誰(shuí)應(yīng)該被拘留或保釋,以及刑罰的輕重。
許多警察部隊(duì)和其他政府機(jī)構(gòu)一直樂(lè)于使用新技術(shù)來(lái)加強(qiáng)監(jiān)視、改善警務(wù)并幫助調(diào)查。諸如假蜂窩發(fā)射器、無(wú)人機(jī)、面部識(shí)別、GPS 位置跟蹤器等技術(shù)在全球數(shù)千家機(jī)構(gòu)的武器庫(kù)中。
除此之外,許多城市還為警察單位提供基于人工智能的系統(tǒng)來(lái)預(yù)測(cè)犯罪活動(dòng)。這些算法旨在持續(xù)監(jiān)控?cái)?shù)據(jù)庫(kù),并將熱點(diǎn)標(biāo)簽分配給大多數(shù)犯罪報(bào)告和逮捕發(fā)生的地方。
預(yù)測(cè)性警務(wù)技術(shù)使用歷史和實(shí)時(shí)數(shù)據(jù)來(lái)預(yù)測(cè)犯罪最有可能發(fā)生的時(shí)間和地點(diǎn),或者誰(shuí)最有可能參與或成為犯罪活動(dòng)的受害者。
問(wèn)題在于,用于增加/減少某些地區(qū)警察存在的算法是自我實(shí)現(xiàn)的:更多的警察存在轉(zhuǎn)化為更多的逮捕,算法將其解釋為同一地點(diǎn)的更多麻煩。相反,在其他地方,尤其是在逮捕事件較少的高收入地區(qū),算法會(huì)確定那些是安全社區(qū)。
人工智能工具越來(lái)越多地被用作風(fēng)險(xiǎn)評(píng)估的一種手段,盡管它缺乏透明度和公平性,但它也無(wú)濟(jì)于事。算法設(shè)計(jì)缺乏透明度使得幾乎不可能檢測(cè)到可能嵌入偏見(jiàn)的問(wèn)題。
“在美國(guó),黑人比白人更有可能因犯罪被捕,即使他們的犯罪率相似。” 人工智能研究員 Janelle Shane 在她的暢銷(xiāo)書(shū)“你看起來(lái)像一件事,我愛(ài)你”中說(shuō)。她補(bǔ)充說(shuō):“機(jī)器學(xué)習(xí)算法不僅會(huì)從他們的訓(xùn)練數(shù)據(jù)中獲取偏見(jiàn),而且它們往往比他們的訓(xùn)練數(shù)據(jù)更有偏見(jiàn)。從他們的角度來(lái)看,他們只是發(fā)現(xiàn)了一個(gè)有用的捷徑規(guī)則,可以幫助他們更頻繁地匹配訓(xùn)練數(shù)據(jù)中的人類。[...] 他們不知道模仿偏見(jiàn)是錯(cuò)誤的。他們只知道這是一種幫助他們實(shí)現(xiàn)目標(biāo)的模式。由程序員來(lái)提供道德和常識(shí)?!?
法官、陪審團(tuán)和劊子手
雖然使用人工智能來(lái)幫助優(yōu)化執(zhí)法資源和他們應(yīng)該更多地監(jiān)管的社區(qū),但近年來(lái)出現(xiàn)了一種更麻煩的算法使用:刑事法庭法官使用人工智能和機(jī)器學(xué)習(xí)進(jìn)行量刑。前聯(lián)邦法官 Katherine B. Forrest 認(rèn)為,當(dāng)前用于自由決策的人工智能工具是基于“功利主義”的正義框架和不符合美國(guó)憲法和獨(dú)立宣言中體現(xiàn)的個(gè)人公平。
“人工智能工具正被積極用于做出影響任何人擁有的最神圣的個(gè)人權(quán)利的決定:生命和自由。影響生命和自由的決定必須基于道德和正義的公平和保護(hù)個(gè)人憲法權(quán)利的框架?!? 福雷斯特說(shuō),并得出結(jié)論。