據報道,谷歌正在教AI人類如何擁抱、做菜和打架。科技的發(fā)達,AI技術也在不斷地提升?,F(xiàn)在的AI還擁有了一個人類的數據庫,我們可以現(xiàn)象未來的AI會變得越來越人性。
谷歌,Youtube的所有者,在十月十九日宣布他們有了一個新的電影片段數據庫,將被用來幫助機器理解人類在生活中的舉止。這個數據庫的名字叫做AVA,而里面的視頻看起來也和正常的沒有什么不同。這些視頻大多三秒左右,里面的人在正常地喝酒做飯。但是每一個片段都有一個綁定文檔將機器需要學習的人物的動作標記出來,并描述出主人公的姿勢,以及他們正在接觸的是人還是物體。還記得你小時候大人指著一只狗告訴你“那是一條狗”嗎?這一數據庫就是其人工智能版本。
當視頻中有超過一個人時,每個人都有他們自己的標簽。這樣,算法可以了解到在正常社交中兩個人見面是需要握手的。
這一科技可以幫助谷歌分析Youtube上成千上萬的視頻內容。他可以根據你正在看什么來為你推薦廣告或者進行內容審核。其最終的目標是教會計算機“社交視覺智能”。在一篇關于這個項目的研究報告中,作者解釋道,所謂“社交視覺智能”指的是可以理解人們在做什么,他們將要做什么,以及他們想要達成什么目標。
AVA這一數據庫有著57600條標好標簽的視頻,覆蓋了80種動作。例如站立,說話,聆聽和行走這樣的簡單動作,每一個都在數據庫中有著超過一萬條視頻標簽。同時,研究者也在論文中承認,使用電影片段確實也帶來了一些副作用,因為電影制作中一些動作總是會被過分戲劇化地詮釋,而并不能完全接近日常生活。
“我們并沒有認為這些數據是完美的,”研究者如此寫道,“但是這些數據比用戶自行上傳的,例如如何逗寵物,如何給孩子過生日這一類視頻要接近日常生活的多。”
論文表明他們正在試圖找到“不同國家最優(yōu)秀的表演者,”但是并沒有詳細闡述這一數據庫是否有種族歧視和性別歧視。