www.久久久久|狼友网站av天堂|精品国产无码a片|一级av色欲av|91在线播放视频|亚洲无码主播在线|国产精品草久在线|明星AV网站在线|污污内射久久一区|婷婷综合视频网站

當(dāng)前位置:首頁(yè) > 消費(fèi)電子 > 消費(fèi)電子
[導(dǎo)讀]你見(jiàn)過(guò)蒙娜麗莎動(dòng)起來(lái)的樣子嗎?只要一張照片,就能把靜態(tài)的人物變成動(dòng)態(tài)的,而且還可以根據(jù)你的表情動(dòng)起來(lái)。要是用在換臉上,恐怕Deepfakes被要拍在沙灘上了。

你見(jiàn)過(guò)蒙娜麗莎動(dòng)起來(lái)的樣子嗎?只要一張照片,就能把靜態(tài)的人物變成動(dòng)態(tài)的,而且還可以根據(jù)你的表情動(dòng)起來(lái)。要是用在換臉上,恐怕Deepfakes被要拍在沙灘上了。

雖然似乎沒(méi)有微笑時(shí)那么好看,但不得不承認(rèn)的是,動(dòng)圖看起來(lái)確實(shí)跟畫(huà)中的蒙娜麗莎十分相似。

除了蒙娜麗莎,愛(ài)因斯坦和瑪麗蓮·夢(mèng)露也可以從靜態(tài)圖變成不同表情的動(dòng)圖。

這是莫斯科三星 AI 研究中心和斯科爾科沃科學(xué)技術(shù)研究院的最新成果。

跟之前的 Deepfake 技術(shù)類(lèi)似,兩者都是從已有圖片或視頻中提取特征,然后經(jīng)過(guò)神經(jīng)網(wǎng)絡(luò)的加工,生成了足可以假亂真的動(dòng)態(tài)圖像或連貫視頻。

不同的是,Deepfake 需要大量訓(xùn)練和數(shù)據(jù)才能生成假圖像,而這項(xiàng)基于卷積神經(jīng)網(wǎng)絡(luò)和少樣本學(xué)習(xí)的新技術(shù),只需要非常小的數(shù)據(jù)集,甚至只靠一張圖片,就可以生成圖片中主人公的連貫面部動(dòng)圖,可以是說(shuō)話(huà)的樣子,也可以是其他表情,大大提升了模型的訓(xùn)練效率和廣泛性。

研究人員還展示了 AI 如何從兩張圖片中提取面都特征,之后融合為一張圖片,與之前英偉達(dá)的 StyleGAN 技術(shù)類(lèi)似。(每刷新它一次,你都將得到一個(gè)從未存在過(guò)的人)

該研究成果以預(yù)印本論文的形式發(fā)表于 Arxiv 上。

利用少樣本學(xué)習(xí)實(shí)現(xiàn) AI 換臉

用 AI 實(shí)現(xiàn)換臉和造假人已經(jīng)不是什么新鮮事,幾年前大火的 Deepfake 應(yīng)用和最近的英偉達(dá) StyleGAN 都可以實(shí)現(xiàn)。它們還可以繼續(xù)升級(jí)和改良,比如結(jié)合 Deepfake 和 GAN,從而獲得更厲害的“造假”效果。

只不過(guò)這類(lèi)技術(shù)都有一個(gè)缺點(diǎn),就是需要針對(duì)某人、某物或某類(lèi)圖片(樣本)進(jìn)行大量訓(xùn)練,才能獲得最佳效果。

于是研究團(tuán)隊(duì)希望打造一個(gè)“少樣本學(xué)習(xí)(few-shot learning)”模型,在訓(xùn)練完成之后,可以用最少的目標(biāo)圖片,實(shí)現(xiàn)對(duì)目標(biāo)的模仿,尤其是模擬出目標(biāo)人物說(shuō)話(huà)時(shí)的樣子,包括面部表情、眼睛、神態(tài)、臉型和嘴型等變化。

少樣本學(xué)習(xí)是近年深度學(xué)習(xí)領(lǐng)域的熱門(mén)研究方向之一,旨在通過(guò)預(yù)訓(xùn)練模型獲取先驗(yàn)知識(shí),改善傳統(tǒng)深度學(xué)習(xí)技術(shù)對(duì)海量數(shù)據(jù)的依賴(lài),在數(shù)據(jù)缺失的情況下,還可以保持學(xué)習(xí)效率。

為了實(shí)現(xiàn)這一目標(biāo),研究人員采用了元學(xué)習(xí)(meta-learning)方法,讓 AI 具備自學(xué)能力。

換句話(huà)說(shuō),就是讓 AI 充分利用現(xiàn)有知識(shí),來(lái)分析未來(lái)任務(wù)的特征,從而學(xué)會(huì)“如何學(xué)習(xí)”。比如讓 AI 觀看張三說(shuō)話(huà)時(shí)的面部表情,提取動(dòng)作特征(現(xiàn)有知識(shí)),再試著看著李四的臉提取特征(新任務(wù)),然后模擬出李四說(shuō)話(huà)時(shí)的面部動(dòng)作。

建立元學(xué)習(xí)架構(gòu)

他們創(chuàng)建了三套神經(jīng)網(wǎng)絡(luò)來(lái)實(shí)現(xiàn)元學(xué)習(xí)架構(gòu)。

第一個(gè)是嵌入器網(wǎng)絡(luò)(Embedder),負(fù)責(zé)將輸入視頻幀和人物面部特征映射成多維度向量。他們使用了開(kāi)源的面部特征提取代碼。訓(xùn)練視頻的每一幀都有對(duì)應(yīng)的面部特征圖,由不同顏色的線(xiàn)條勾勒出來(lái),里面包含的五官信息與姿勢(shì)無(wú)關(guān)。

第二個(gè)是生成器網(wǎng)絡(luò)(Generator),將嵌入器網(wǎng)絡(luò)沒(méi)看過(guò)的新特征圖和多維度向量作為輸入值,穿過(guò)到多個(gè)卷積層,輸出一個(gè)合成(視頻)幀——會(huì)使用參考視頻幀(ground truth)作為參考。生成器的訓(xùn)練目的是讓合成幀和參考幀盡可能相似,更好地模擬目標(biāo)對(duì)象的動(dòng)態(tài)表情。

最后一個(gè)是鑒別器網(wǎng)絡(luò)(Discriminator),負(fù)責(zé)整合和處理原視頻幀、合成視頻幀、對(duì)應(yīng)的面部特征圖和訓(xùn)練序列。它通過(guò)序列數(shù),判斷合成幀與參考幀是否吻合,有多大差距,以及與面部特征圖是否匹配。根據(jù)匹配程度,網(wǎng)絡(luò)會(huì)計(jì)算出一個(gè)真實(shí)性得分,顯示出兩者之間的差別。

研究人員會(huì)通過(guò)(條件)鑒別器輸出的得分對(duì)三個(gè)網(wǎng)絡(luò)進(jìn)行整體優(yōu)化,感知和對(duì)抗損失函數(shù)都包含其中。

元學(xué)習(xí)模型構(gòu)建完成后,研究人員使用了開(kāi)源的 VoxCeleb1 和 VoxCeleb2 數(shù)據(jù)集,進(jìn)行訓(xùn)練和測(cè)試。前者擁有 10 萬(wàn)多個(gè)視頻樣本,來(lái)自 1251 個(gè)名人,被用來(lái)與基準(zhǔn)模型性能進(jìn)行比較,后者擁有 100 多萬(wàn)個(gè)樣本,來(lái)自 6112 個(gè)人,用于進(jìn)行預(yù)訓(xùn)練和測(cè)試新模型效果。

在小樣本學(xué)習(xí)的前提下,模型需要憑借預(yù)訓(xùn)練的經(jīng)驗(yàn),觀看一小段完全沒(méi)有見(jiàn)過(guò)的一個(gè)人的視頻,在每一幀中模仿這個(gè)人的面部表情,并與真正的表情對(duì)比,得出結(jié)果。AI 可以使用的幀越多(圖片越多),比如從 1 張圖增加到 32 張圖,得到的最終效果就越貼近真實(shí)。

雖然從綜合評(píng)分來(lái)看,模型的準(zhǔn)確度有時(shí)不及基準(zhǔn)模型,但這是少樣本方法和模型本身導(dǎo)致的,還有進(jìn)一步的提升空間。而且我們從結(jié)果也能看出,AI 模擬的整體效果還是可以接受的。

除此之外,研究人員還嘗試了靜圖變動(dòng)圖,也就是我們最開(kāi)始看到的蒙娜麗莎和愛(ài)因斯坦動(dòng)圖。模型可以在一定程度上模仿出相似的表情,但背景圖案,尤其是有頭發(fā)的地方,偶爾會(huì)出現(xiàn)小瑕疵。

不過(guò)瑕不掩瑜,這樣一個(gè)少樣本對(duì)抗網(wǎng)絡(luò)的元學(xué)習(xí)框架,非常適合在沒(méi)有大量數(shù)據(jù)的情況下實(shí)現(xiàn) AI 換臉。而且還能啟發(fā)類(lèi)似的后續(xù)研究,在該模型的基礎(chǔ)上改良和創(chuàng)新,比如通過(guò)改善面部特征提取過(guò)程,讓人物表情模擬更加自然,或者加入眼神凝視等目前無(wú)法實(shí)現(xiàn)的高難特征提取機(jī)制。

本站聲明: 本文章由作者或相關(guān)機(jī)構(gòu)授權(quán)發(fā)布,目的在于傳遞更多信息,并不代表本站贊同其觀點(diǎn),本站亦不保證或承諾內(nèi)容真實(shí)性等。需要轉(zhuǎn)載請(qǐng)聯(lián)系該專(zhuān)欄作者,如若文章內(nèi)容侵犯您的權(quán)益,請(qǐng)及時(shí)聯(lián)系本站刪除。
換一批
延伸閱讀

慕尼黑2025年9月11日 /美通社/ -- 高端智能電動(dòng)汽車(chē)品牌問(wèn)界(AITO)在2025年德國(guó)國(guó)際汽車(chē)及智慧出行博覽會(huì)(IAA MOBILITY)上,正式發(fā)布了其最新全球產(chǎn)品陣容——專(zhuān)為中東市場(chǎng)深度本地化打造的AIT...

關(guān)鍵字: AI 智能駕駛 測(cè)試 生態(tài)系統(tǒng)

拉斯維加斯2025年9月11日 /美通社/ -- 在9月8日至11日舉辦的RE+ 2025展會(huì)上,全球綜合儲(chǔ)能解決方案供應(yīng)商德賽電池(Desay Battery)全面展示了其創(chuàng)新成果,并宣布與深圳市華寶新能源股份有限公司...

關(guān)鍵字: 電池 電芯 人工智能 鋰電

香港2025年 9月12日 /美通社/ -- 全球領(lǐng)先的互聯(lián)網(wǎng)社區(qū)創(chuàng)建者 - 網(wǎng)龍網(wǎng)絡(luò)控股有限公司 ("網(wǎng)龍"或"本公司",香港交易所股票代碼:777)欣然宣布,其子公司My...

關(guān)鍵字: AI 遠(yuǎn)程控制 控制技術(shù) BSP

AI賦能制造,黃埔匯聚全球新機(jī)遇 廣州2025年9月11日 /美通社/ -- 2025年9月10日,由廣州開(kāi)發(fā)區(qū)投資集團(tuán)有限公司、廣州開(kāi)發(fā)區(qū)黃埔區(qū)具身智能機(jī)器人產(chǎn)業(yè)發(fā)展促進(jìn)會(huì)、華南美國(guó)商會(huì)共同主辦的"2025...

關(guān)鍵字: 智能制造 AI 人工智能 供應(yīng)鏈

香港2025年9月11日 /美通社/ -- 華欽科技集團(tuán)(納斯達(dá)克代碼:CLPS,以下簡(jiǎn)稱(chēng)"華欽科技"或"集團(tuán)")近日宣布成功利用人工智能(AI),包括微軟Copilot等客戶(hù)指定AI模型,完成對(duì)一家香港大型銀行30年歷...

關(guān)鍵字: 人工智能 PS REACT 測(cè)試

天津2025年9月11日 /美通社/ -- 國(guó)際能源署(IEA)數(shù)據(jù)顯示,2024 年全球數(shù)據(jù)中心電力消耗達(dá) 415 太瓦時(shí),占全球總用電量的 1.5%,預(yù)計(jì)到 2030 年,這一數(shù)字將飆升至 945 太瓦時(shí),近乎翻番,...

關(guān)鍵字: 模型 AI 數(shù)據(jù)中心 BSP

深圳2025年9月11日 /美通社/ -- 近日,德國(guó)柏林國(guó)際電子消費(fèi)品展覽會(huì)(簡(jiǎn)稱(chēng)IFA)期間,國(guó)際公認(rèn)的測(cè)試、檢驗(yàn)和認(rèn)證機(jī)構(gòu)SGS為極殼(Hypershell) 全球首款戶(hù)外動(dòng)力外骨骼產(chǎn)品Hypershell X 系...

關(guān)鍵字: SHELL RS AI SI

近日,一則關(guān)于 AI 算力領(lǐng)域的消息引發(fā)行業(yè)震動(dòng)!據(jù)科技網(wǎng)站 The Information 援引四位知情人士爆料,中國(guó)科技巨頭阿里巴巴與百度已正式將自研芯片應(yīng)用于 AI 大模型訓(xùn)練,打破了此前對(duì)英偉達(dá)芯片的單一依賴(lài)。

關(guān)鍵字: AI 算力 阿里 百度 芯片 AI模型

2025年9月11日,中國(guó)上海 — 思特威(上海)電子科技股份有限公司(股票簡(jiǎn)稱(chēng):思特威,股票代碼:688213)近日宣布,全新推出5000萬(wàn)像素0.7μm像素尺寸手機(jī)應(yīng)用CMOS圖像傳感器——SC535XS。SC535...

關(guān)鍵字: CMOS圖像傳感器 手機(jī) AI
關(guān)閉