機(jī)器學(xué)習(xí)的決策滲透著偏見,能把決策權(quán)完全交給機(jī)器嗎?
隨著人工智能的發(fā)展,人類將會把越來越多的決策權(quán)交給機(jī)器。但是,從目前的一些事例看,基于機(jī)器學(xué)習(xí)的決策并非那么公正完美,相反,那些決策也滲透著偏見。近期的一份研究報告中,Google的一名研究科學(xué)家MorTIz Hardt表示:“基于機(jī)器學(xué)習(xí)的決策是極為有用的,同時,它又會深刻影響我們的生活……盡管如此,在如何避免機(jī)器學(xué)習(xí)可能產(chǎn)生的偏見方面,我們?nèi)匀蝗狈σ环N可靠的方法。”
本月,這份報告提交給了巴塞羅那舉辦的NIPS 大會(NIPS,神經(jīng)信息處理系統(tǒng))。與此同時,其它人也提交了一些相關(guān)的論文。這證明此問題正在受到更多人的重視。芝加哥豐田技術(shù)學(xué)院的計算機(jī)科學(xué)家 Nathan Srebro 是上述研究報告的作者之一。他向衛(wèi)報網(wǎng)站介紹了研究員們使用的測試方法。
Srebro 說,這項(xiàng)測試是針對機(jī)器學(xué)習(xí)系統(tǒng)的。通過分析大量的數(shù)據(jù),機(jī)器學(xué)習(xí)系統(tǒng)能夠?qū)ξ磥碜龀鲱A(yù)測。問題在于,計算機(jī)的決策規(guī)則并非實(shí)現(xiàn)事先編寫好的,而是計算機(jī)自己學(xué)會的,因此,決策背后的邏輯通常是不可知的。即使編寫算法的程序員也未必能夠搞清楚。
“算法是如此復(fù)雜,即使我們能夠進(jìn)入其內(nèi)部,搞懂其內(nèi)在原理也是幾乎不可能的,” Srebro 說,“機(jī)器學(xué)習(xí)的全部要點(diǎn)就是構(gòu)建魔法黑箱子。”
為此,Srebro 與同事們設(shè)計了一種測試方法。他們只檢測進(jìn)入算法的數(shù)據(jù)以及算法給出的決策。“我們的方法并不關(guān)注機(jī)器學(xué)習(xí)算法的內(nèi)部,” Srebro 說,“我們只關(guān)注它做出了什么決策。”
這個方法基于一個基本原則:當(dāng)算法做出與某人相關(guān)的決策時,它只能揭示數(shù)據(jù)提供的內(nèi)容,而不能暴露個人的種族或者性別。例如,在償還銀行債務(wù)方面,男性拖欠債務(wù)的比例遠(yuǎn)遠(yuǎn)超過女性,那么,當(dāng)數(shù)據(jù)庫里的某人拖欠債務(wù),你可能會推論,那很可能是一個男人。但是,如果你推斷說,銀行的最佳策略是拒絕所有男性的貸款請求,那么,該決策就精確定位了個人的性別。“這可以視為不合理的歧視,” Srebro 說。
針對這個方法,有人提出了質(zhì)疑。他們認(rèn)為,這等于是繞過了機(jī)器算法的決策過程,使其缺乏任何的透明性。西英格蘭的機(jī)器人道德學(xué)教授 Alan Winfield 說,“設(shè)想一下,如果某個案件涉及到機(jī)器算法的決策,法庭將需要專家證人解釋算法做出決策的理由。”
不過,他也承認(rèn),如果要求機(jī)器決策的絕對透明度,那肯定會引起深度學(xué)習(xí)社群的強(qiáng)烈抗議。謝菲爾德大學(xué)機(jī)器人和人工智能學(xué)教授 Noel Sharkey 同意這種觀點(diǎn)。“如果你要找出輸油管道的最佳方案,機(jī)器學(xué)習(xí)是個很好的選擇,但是,在我們深入了解算法如何產(chǎn)生偏見之前,我會很在意它做出一些影響人們生活的決策。”