我們需要的是怎樣的AI系統(tǒng)
每個(gè)父母都擔(dān)心他們孩子會受到潛在影響。 比如,他們的老師是誰? 他們正在看什么電影? 他們在玩什么電子游戲? 他們在和合適的人群閑逛嗎? 父母們會仔細(xì)檢查這些事情帶來潛在影響,無論是好是壞,因?yàn)樗麄冎肋@些會影響孩子成長和判斷。
正如我們關(guān)注誰在教我們的孩子一樣,我們也需要注意誰在教我們的算法。 像人類一樣,人工智能系統(tǒng)從其所處的環(huán)境中學(xué)習(xí),并根據(jù)其發(fā)展的偏見做出決策。 和我們的孩子一樣,我們應(yīng)該期望我們的模型能夠隨著他們的成長來解釋他們的決定。
正如Cathy O’Neil在《數(shù)學(xué)毀滅性武器》中所解釋的那樣,算法通常決定著我們上的大學(xué),是否被錄用以尋找工作,是否有資格獲得貸款以購買房屋,甚至誰入獄以及持續(xù)多長時(shí)間。 與人為決定不同,這些數(shù)學(xué)模型很少受到質(zhì)疑。 它們只是出現(xiàn)在某些人的計(jì)算機(jī)屏幕上,命運(yùn)就已確定。
在某些情況下,算法的錯(cuò)誤是顯而易見的,例如當(dāng)?shù)拉偹箞?bào)道谷歌以90億美元收購蘋果公司,而機(jī)器人為此而屈服時(shí),或者微軟的Tay聊天機(jī)器人在Twitter上發(fā)瘋時(shí);但通常不是這樣,有些錯(cuò)誤并非這么明顯。更隱蔽和普遍的是那些細(xì)微的小錯(cuò)誤,這些細(xì)微的小錯(cuò)誤雖然未被注意到,但卻對人們的生活產(chǎn)生了非常實(shí)際的影響。
一旦遇到錯(cuò)誤的算法,您的生活就會立即變得更加困難。 無法入讀一所好學(xué)?;蛘也坏揭环莨ぷ?,您的收入將會減少,生活在更差的社區(qū)。 這些事實(shí)被引入新算法中,您的情況會進(jìn)一步惡化。 你的每一次決定,每一個(gè)行動(dòng),都會被記錄下來,然后被進(jìn)行測量和評估。
以莎拉·懷索克(Sarah Wysocki)為例,她是一名五年級老師,盡管受到父母,學(xué)生和管理人員的稱贊,但還是被哥倫比亞特區(qū)學(xué)區(qū)開除,原因是一種算法認(rèn)為她的成績不及標(biāo)準(zhǔn)。 為什么? 目前尚不清楚,因?yàn)橄到y(tǒng)太復(fù)雜了,開除她的人也無法理解。
毫無疑問,隨著我們越來越多地將決策外包給算法,這個(gè)問題有可能變得更加嚴(yán)重。 當(dāng)務(wù)之急是,我們必須開始認(rèn)真對待人工智能偏差問題,并采取措施使我們的系統(tǒng)更加透明,可解釋和可審計(jì)來減輕其影響。
人工智能系統(tǒng)中的偏差有兩個(gè)主要來源:訓(xùn)練模型所依據(jù)的數(shù)據(jù)集和模型本身的設(shè)計(jì)。 訓(xùn)練算法的數(shù)據(jù)集中的偏差可能很細(xì)微,例如,當(dāng)使用智能手機(jī)應(yīng)用程序監(jiān)視坑洼并提醒當(dāng)局與維護(hù)人員聯(lián)系時(shí)。 這可能是有效的方法,但在偏遠(yuǎn)地區(qū)一定是行不通的,這是因?yàn)槟抢飺碛兄悄苁謾C(jī)的人比較少。
在其他情況下,未收集的數(shù)據(jù)可能會影響結(jié)果。 分析人士懷疑,當(dāng)Google對2013年流感趨勢進(jìn)行預(yù)測的時(shí)候,預(yù)估病例數(shù)幾乎是實(shí)際數(shù)量的兩倍時(shí),就會發(fā)生這種情況。 似乎已經(jīng)發(fā)生的事情是,媒體報(bào)道的增加導(dǎo)致沒有生病的人進(jìn)行更多的搜索。
當(dāng)人類的偏見延續(xù)到AI系統(tǒng)中時(shí),就會產(chǎn)生數(shù)據(jù)偏見的另一個(gè)來源。 例如,司法系統(tǒng)中的偏見會影響誰因犯罪被起訴和判刑。 如果將這些數(shù)據(jù)用于預(yù)測誰可能犯罪,那么這些偏見將繼續(xù)存在。 在其他情況下,人類被用來標(biāo)記數(shù)據(jù),并可能將輸入偏差引導(dǎo)到系統(tǒng)中。
這種偏見普遍存在,難以消除。 實(shí)際上,亞馬遜被迫放棄了由人工智能驅(qū)動(dòng)的招聘工具,因?yàn)樗麄儫o法消除結(jié)果中的性別偏見。 他們不公平地偏愛男性,因?yàn)樗麄兪褂玫呐嘤?xùn)數(shù)據(jù)告訴系統(tǒng),該公司以前雇用的大多數(shù)被視為成功的員工都是男性。 即使他們消除了對性別的任何具體提及,系統(tǒng)仍將某些單詞出現(xiàn)在男性簡歷中而不是女性簡歷中,這是性別的代理。
解決方案
由于存在多種多樣的偏見,我們認(rèn)為完全消除甚至根本消除偏見是不現(xiàn)實(shí)的。 但是,我們可以做的是使我們的AI系統(tǒng)更具可解釋性,可審計(jì)性和透明度。 我們建議領(lǐng)導(dǎo)者可以采取三個(gè)實(shí)際步驟來減輕偏見的影響。
首先,必須對AI系統(tǒng)進(jìn)行嚴(yán)格的人工審查。 例如,奧巴馬政府在白宮的一份報(bào)告中引用的一項(xiàng)研究發(fā)現(xiàn),雖然機(jī)器在讀取放射線圖像時(shí)有7.5%的錯(cuò)誤率,而人類有3.5%的錯(cuò)誤率,但是當(dāng)人們將工作與機(jī)器結(jié)合起來時(shí),錯(cuò)誤率下降至0.5%。
其次,就像法律要求銀行“了解客戶”一樣,構(gòu)建系統(tǒng)的工程師也需要了解其算法。 例如,Experian數(shù)據(jù)實(shí)驗(yàn)室負(fù)責(zé)人埃里克·哈勒(Eric Haller)告訴我們,與幾十年前不同,當(dāng)他們使用的模型相當(dāng)簡單時(shí),在AI時(shí)代,他的數(shù)據(jù)科學(xué)家需要更加謹(jǐn)慎。 他說:“過去,我們只需要保留準(zhǔn)確的記錄,這樣,如果犯了一個(gè)錯(cuò)誤,我們可以回去,找到問題并加以解決?!?“現(xiàn)在,當(dāng)我們有這么多模型都由人工智能提供支持時(shí),這并不容易。 我們不僅可以下載開源代碼并運(yùn)行它。 我們需要非常深入地了解我們算法中的每一行代碼,并能夠向外部利益相關(guān)者進(jìn)行解釋?!?/p>
第三,人工智能系統(tǒng)以及用于訓(xùn)練它們的數(shù)據(jù)源必須透明且可用于審核。 歐洲的GDPR之類的立法框架已邁出了一些有希望的第一步,但顯然還需要做更多的工作。 我們認(rèn)為人類在沒有任何監(jiān)督的情況下做出決定是不可接受的,因此沒有理由在機(jī)器做出決定時(shí)我們應(yīng)該接受它。
也許最重要的是,我們需要從自動(dòng)化文化轉(zhuǎn)變?yōu)樵鰪?qiáng)文化。 人工智能的效果最好不是用作替代人類并降低成本的魔盒,而是用作創(chuàng)造新價(jià)值的助推器。 通過使AI系統(tǒng)更具可解釋性,可審計(jì)性和透明度,我們不僅可以使我們的系統(tǒng)更加公平,而且可以使它們更有效,更有用。