www.久久久久|狼友网站av天堂|精品国产无码a片|一级av色欲av|91在线播放视频|亚洲无码主播在线|国产精品草久在线|明星AV网站在线|污污内射久久一区|婷婷综合视频网站

當前位置:首頁 > 智能硬件 > 人工智能AI
[導讀] 近期,一份來自斯坦福大學的研究聲稱,他們的算法可以通過對照片中人物的表情、動作和神態(tài)進行分析,推斷出人物的性取向。 但批評家卻認為,這只是披上了人工智能外衣的偽科學和面相學。這些早已被西方科學世

近期,一份來自斯坦福大學的研究聲稱,他們的算法可以通過對照片中人物的表情、動作和神態(tài)進行分析,推斷出人物的性取向。 但批評家卻認為,這只是披上了人工智能外衣的偽科學和面相學。這些早已被西方科學世界摒棄的落后觀念,如今在新科技的掩飾下,重新抬頭。 研究的狹隘性斯坦福的研究給出了一個看似很高的判斷精確度:當人工智能對單張照片分析時,它猜對圖中男性性取向的幾率為81%,而女性則為71%。

當每位被分析人物的照片增加到5張時,算法分析男性和女性的性取向正確率分別高達91%和83%。 但問題是,研究人員在測試時,是按兩人一組的形式并行測試,每組人物一“直”一“彎”,因此,即使人工智能只是瞎蒙,都能有50%的準確率。

而且,研究人員聲稱算法的分析只專注于五官研究,而采用的VGG-Face軟件可最小化流動性因素,如打光、姿勢和表情等的干擾。 但人工智能面部識別方向的研究人員Tom White 則表示,VGG-Face 捕抓那些流動性元素能力也很強。

這個被作為研究的基本數(shù)據(jù)本身就是有偏見的。

來自美國歐柏林大學的社會學教授Greggor Mattson 指出,由于這些照片是從約會網(wǎng)站中抓取的,意味著,這些照片本身就是由用戶專門精選,用來吸引特定性取向的人。 也就是說,這些照片都是用戶演繹出來,迎合他們認為社會對該性取向人群的定位,換言之——刻板印象。 雖然研究團隊也曾將算法拿到研究以外的素材進行測試,但那些素材本身也是具有偏見的。畢竟,并不是所有男同志都會給“我彎我自豪”這類頁面點贊,而有點贊的人,也許也可能會趨于迎合特定刻板印象。 而他們所忽略的,是這個群體中所包含的,無數(shù)的無規(guī)律的非典型行為。

這個研究的主負責人Kosinski 也表示,他的研究也可能是錯的,并表示“想要核實結(jié)果正確性,我們還得進行更多研究。”但如何才能確定研究不會帶有偏見呢?對此,Kosinski 的回應是:

想要測試和驗證一個結(jié)果的正確性,你并不需要理解(研究)模型的工作原理。 而The Verge 則認為,正是這種研究中的不透明性,才會使得這些研究充滿了誤導性。 人工智能也是人類帶著偏見制造的新工具

在歷史的長河上,人類將自身偏見投射于當時最好工具的例子一直都很多。 而將人類外表和人的個性和本質(zhì)關(guān)聯(lián)的觀念,從古希臘時期就已經(jīng)存在了,而到了19 世紀,更是被工具賦予了“科學”的假象。 當時的面相學研究者認為,人類額頭形成的角度,或是人鼻子的形狀,都可作為判斷一個人是誠實還是有犯罪傾向的例證。雖然這些說法早已被判斷為偽科學,但如今卻在人工智能時代“重獲新生”。

去年,來自上海交大的研究團隊還聲稱研發(fā)了一個辨識罪犯的神經(jīng)網(wǎng)絡系統(tǒng),引來了人工智能社區(qū)怒斥,三名來自Google 的研究人員更是撰寫萬字長文批評這些研究者。 而一家名為FacepTIon 的新創(chuàng)企業(yè)也聲稱可以通過面容分析來識別恐怖分子。

但是,人工智能就真的可以客觀地分析和研究這些數(shù)據(jù)嗎?澳大利亞國立大學的社會學講師Jenny Davis 并不同意:

人工智能并不是真的純“人工”。 機器學習的方式就和人類學習的方式一樣。我們從文化中提取并吸收社會結(jié)構(gòu)的常態(tài),而人工智能也是這樣。 因此,它(人工智能)也會再建、擴大并且延續(xù)我們?nèi)祟悶樗鼈冊O下的道路,而這些道路,一直都將反映現(xiàn)存的社會常態(tài)。 而無論是根據(jù)面容來判斷一個人是否誠實,或是判斷他的性取向,這些算法都是基于社會原有生物本質(zhì)主義(biological essenTIalism),這是一種深信人的性取向等本質(zhì)是根植于人身體的理論。 Davis 還指出,這些是“很有用”的理論,因為它可以從特定人群中提取出某種特質(zhì),并通過將該特質(zhì)定義為“次要、劣勢”,來成為原本就有偏見的人群進行歧視的“正當理由”。

今年年初,來自巴斯大學和普林斯頓大學的計算機科學家就曾用類似IAT(內(nèi)隱聯(lián)想測驗)的聯(lián)想類測試來檢測算法的潛在傾向性,并發(fā)現(xiàn)即使算法也會對種族和性別帶有偏見。 甚至,連Google 翻譯也難逃偏見,算法“發(fā)現(xiàn)”并“學習”了社會約定俗成的偏見。當在特定語言環(huán)境中,一些原本是中性的名詞,如果上下文具有特定形容詞(中性),它會將中性詞轉(zhuǎn)而翻譯為“他”或“她”。

說到這里,也許大家已經(jīng)可以看出,Kosinski 和Wang 研究(斯坦福研究)的精確性已經(jīng)不是最重要的了。 如果有人想相信人工智能可以判斷性別取向,(無論準確度如何)他們都會拿來用。 因此,更重要的,是我們要理解人工智能的限制性,并在它造成危害之前中和它。 The Verge 評論道。但最麻煩的,在于大多數(shù)時候,我們都沒法察覺到自身存在的偏見,那我們又怎樣可期望我們做出來的工具是絕對公正的呢?

本站聲明: 本文章由作者或相關(guān)機構(gòu)授權(quán)發(fā)布,目的在于傳遞更多信息,并不代表本站贊同其觀點,本站亦不保證或承諾內(nèi)容真實性等。需要轉(zhuǎn)載請聯(lián)系該專欄作者,如若文章內(nèi)容侵犯您的權(quán)益,請及時聯(lián)系本站刪除。
換一批
延伸閱讀

9月2日消息,不造車的華為或?qū)⒋呱龈蟮莫毥谦F公司,隨著阿維塔和賽力斯的入局,華為引望愈發(fā)顯得引人矚目。

關(guān)鍵字: 阿維塔 塞力斯 華為

加利福尼亞州圣克拉拉縣2024年8月30日 /美通社/ -- 數(shù)字化轉(zhuǎn)型技術(shù)解決方案公司Trianz今天宣布,該公司與Amazon Web Services (AWS)簽訂了...

關(guān)鍵字: AWS AN BSP 數(shù)字化

倫敦2024年8月29日 /美通社/ -- 英國汽車技術(shù)公司SODA.Auto推出其旗艦產(chǎn)品SODA V,這是全球首款涵蓋汽車工程師從創(chuàng)意到認證的所有需求的工具,可用于創(chuàng)建軟件定義汽車。 SODA V工具的開發(fā)耗時1.5...

關(guān)鍵字: 汽車 人工智能 智能驅(qū)動 BSP

北京2024年8月28日 /美通社/ -- 越來越多用戶希望企業(yè)業(yè)務能7×24不間斷運行,同時企業(yè)卻面臨越來越多業(yè)務中斷的風險,如企業(yè)系統(tǒng)復雜性的增加,頻繁的功能更新和發(fā)布等。如何確保業(yè)務連續(xù)性,提升韌性,成...

關(guān)鍵字: 亞馬遜 解密 控制平面 BSP

8月30日消息,據(jù)媒體報道,騰訊和網(wǎng)易近期正在縮減他們對日本游戲市場的投資。

關(guān)鍵字: 騰訊 編碼器 CPU

8月28日消息,今天上午,2024中國國際大數(shù)據(jù)產(chǎn)業(yè)博覽會開幕式在貴陽舉行,華為董事、質(zhì)量流程IT總裁陶景文發(fā)表了演講。

關(guān)鍵字: 華為 12nm EDA 半導體

8月28日消息,在2024中國國際大數(shù)據(jù)產(chǎn)業(yè)博覽會上,華為常務董事、華為云CEO張平安發(fā)表演講稱,數(shù)字世界的話語權(quán)最終是由生態(tài)的繁榮決定的。

關(guān)鍵字: 華為 12nm 手機 衛(wèi)星通信

要點: 有效應對環(huán)境變化,經(jīng)營業(yè)績穩(wěn)中有升 落實提質(zhì)增效舉措,毛利潤率延續(xù)升勢 戰(zhàn)略布局成效顯著,戰(zhàn)新業(yè)務引領增長 以科技創(chuàng)新為引領,提升企業(yè)核心競爭力 堅持高質(zhì)量發(fā)展策略,塑強核心競爭優(yōu)勢...

關(guān)鍵字: 通信 BSP 電信運營商 數(shù)字經(jīng)濟

北京2024年8月27日 /美通社/ -- 8月21日,由中央廣播電視總臺與中國電影電視技術(shù)學會聯(lián)合牽頭組建的NVI技術(shù)創(chuàng)新聯(lián)盟在BIRTV2024超高清全產(chǎn)業(yè)鏈發(fā)展研討會上宣布正式成立。 活動現(xiàn)場 NVI技術(shù)創(chuàng)新聯(lián)...

關(guān)鍵字: VI 傳輸協(xié)議 音頻 BSP

北京2024年8月27日 /美通社/ -- 在8月23日舉辦的2024年長三角生態(tài)綠色一體化發(fā)展示范區(qū)聯(lián)合招商會上,軟通動力信息技術(shù)(集團)股份有限公司(以下簡稱"軟通動力")與長三角投資(上海)有限...

關(guān)鍵字: BSP 信息技術(shù)
關(guān)閉
關(guān)閉