人工智能存在怎樣偏見(jiàn)
在21世紀(jì)的今天,智能手機(jī),智能家居和智能城市正在影響我們的生活和工作,人工智能(AI)正在以引人注目的方式重新配置人類(lèi)世界。
不論是工業(yè)生產(chǎn),還是餐飲服務(wù),都能看到人工智能的身影。有專(zhuān)家樂(lè)觀預(yù)測(cè),到了2030年,人工智能將為世界經(jīng)濟(jì)增加15萬(wàn)億美元。不過(guò)有人擔(dān)心世界失業(yè)率會(huì)接近50%。
然而讓人更擔(dān)心的是,人工智能(AI)存在巨大潛在風(fēng)險(xiǎn),比如惡意培養(yǎng)殺手機(jī)器人,因此有科學(xué)家擔(dān)心人類(lèi)會(huì)因此而滅絕。
另外,有專(zhuān)家發(fā)現(xiàn)人工智能系統(tǒng)存在偏見(jiàn),可能會(huì)加劇現(xiàn)有社會(huì)偏見(jiàn)的傾向,從而對(duì)社會(huì)制造出破壞性影響。
比如現(xiàn)在最先進(jìn)自動(dòng)機(jī)器翻譯系統(tǒng)會(huì)產(chǎn)生性別歧視,最先進(jìn)智能識(shí)別系統(tǒng)竟將黑人識(shí)別為大猩猩。
2019年10月11日,在最新的谷歌翻譯系統(tǒng)中,比如輸入:
The women started the meeting. They worked efficiently。
結(jié)果輸出:Les femmes ont commencé la réunion. Ils ont travaillé efficacement。
從表面上看,意思都是婦女們開(kāi)始開(kāi)會(huì),他們有效地工作。但是Ils在英文語(yǔ)法中代表為男性他,所以翻譯過(guò)來(lái)的語(yǔ)法是錯(cuò)誤的,這說(shuō)明人工智能(AI)男性他被自動(dòng)化系統(tǒng)設(shè)為默認(rèn)值。
人工智能(AI)之所以會(huì)出現(xiàn)這類(lèi)問(wèn)題,是因?yàn)橹悄芟到y(tǒng)使用一種類(lèi)似神經(jīng)網(wǎng)絡(luò)的數(shù)學(xué)模型來(lái)獲取數(shù)據(jù)。
如果輸入給智能系統(tǒng)的數(shù)據(jù)集本身存在著偏見(jiàn)等問(wèn)題,那么智能系統(tǒng)在輸出結(jié)果就會(huì)暴露偏見(jiàn)。這樣一來(lái),可能使諸如婦女,少數(shù)民族或老年人等群體邊緣化,從而加劇現(xiàn)有社會(huì)失衡。
當(dāng)然,這只是人工智能(AI)暴露一個(gè)方面問(wèn)題,可能更嚴(yán)重問(wèn)題還在后面。有專(zhuān)家表示,人工智能正走向一條更黑暗道路。
來(lái)源:趣味探索訊