人工智能行業(yè)面臨多樣性危機(jī):女性和有色人種被嚴(yán)重低估
據(jù)theverge報(bào)道,人工智能研究所(AI Now Institute)的研究人員在今天發(fā)布的一份報(bào)告中表示,人工智能行業(yè)正面臨“多樣性危機(jī)”,這對(duì)該領(lǐng)域的發(fā)展方向提出了關(guān)鍵問(wèn)題。
報(bào)告發(fā)現(xiàn),女性和有色人種被嚴(yán)重低估。報(bào)告指出,研究發(fā)現(xiàn),約80%的人工智能教授是男性,而Facebook和谷歌的人工智能研究人員中,只有15%和10%是女性。有色人種也被邊緣化,只占大型科技公司員工的一小部分。
其結(jié)果是,勞動(dòng)力往往由白人和男性視角驅(qū)動(dòng),構(gòu)建的工具往往會(huì)影響其他群體。人工智能研究所副所長(zhǎng)梅雷迪思•惠特克(Meredith Whittaker)表示:“受這些系統(tǒng)影響的并不是人的多樣性。”
更糟糕的是,通過(guò)修復(fù)潛在求職者的“渠道”來(lái)改善這一問(wèn)題的計(jì)劃基本上失敗了。
研究人員寫(xiě)道:“盡管有幾十年的‘渠道研究’評(píng)估了從學(xué)校到行業(yè)的不同求職者的流動(dòng)情況,但人工智能行業(yè)在多樣性方面沒(méi)有取得實(shí)質(zhì)性進(jìn)展。”
研究人員提出了一些改進(jìn)這個(gè)問(wèn)題的建議。他們表示,公司可以通過(guò)發(fā)布更多的薪酬數(shù)據(jù)(按種族和性別分類),以及發(fā)布性騷擾和歧視透明度報(bào)告,來(lái)提高透明度。
多樣性雖然是科技行業(yè)的一個(gè)障礙,但在人工智能領(lǐng)域卻存在著特定的危險(xiǎn)。在人工智能領(lǐng)域,面部識(shí)別等可能存在偏見(jiàn)的技術(shù),可能會(huì)不成比例地影響歷史上被邊緣化的群體。研究人員寫(xiě)道,像2017年推出的掃描人臉以確定性別的程序,類似這樣的工具,反映了過(guò)去對(duì)于性別歧視的不公平。
但更重要的是,人工智能工具制造商必須愿意不去建造風(fēng)險(xiǎn)最高的項(xiàng)目。“我們需要知道這些系統(tǒng)是安全的,也是公平的,”AI Now研究所副所長(zhǎng)凱特•克勞福德(Kate Crawford)表示。
科技行業(yè)的員工在一些重大人工智能問(wèn)題上表明了自己的立場(chǎng),敦促他們的公司放棄或?qū)彶榭赡軅θ鮿?shì)群體的敏感工具的使用。亞馬遜員工就該公司的面部識(shí)別產(chǎn)品向高管提出質(zhì)疑。最近,谷歌的員工對(duì)一個(gè)包括美國(guó)傳統(tǒng)基金會(huì)掌舵人在內(nèi)的人工智能審查委員會(huì)發(fā)起了反擊,指出該組織曾游說(shuō)反對(duì)LGBTQ的權(quán)利問(wèn)題。而公司很快就解散了該董事會(huì)。
“人工智能的多樣性危機(jī)是有案可查且影響廣泛的。”研究人員總結(jié)道,“在整個(gè)行業(yè)和學(xué)術(shù)界的不平等工作場(chǎng)所,在招聘和晉升方面的不平等,在反映和放大偏見(jiàn)成見(jiàn)的人工智能技術(shù),以及在自動(dòng)化系統(tǒng)中生物決定論的重現(xiàn),都可以看到這一點(diǎn)。”