實(shí)時(shí)光補(bǔ)償算法是AR行業(yè)技術(shù)革新的驅(qū)動(dòng)力量
在Google 、 Apple 和BAT等國(guó)際、國(guó)內(nèi)大頭,都在AR/AI領(lǐng)域擲出大手筆或深度注資的熱潮遠(yuǎn)景下,光場(chǎng)算法作為涵蓋三大產(chǎn)業(yè)中姿態(tài)、捕捉、編解碼、壓縮、分析、分發(fā)、顯示等整套技術(shù)環(huán)節(jié)體系中最底層也最核心的技術(shù),只有真正將基礎(chǔ)打好,從核心抓起,才能賦能多元技術(shù)沖破壁壘,率先把握自主科研創(chuàng)新風(fēng)口。
所謂光場(chǎng),是指整個(gè)三維空間內(nèi)所有光線的集合??臻g中每個(gè)點(diǎn)的光場(chǎng)都可以定義為5D函數(shù),每條射線的方向均由5D全光函數(shù)發(fā)射,其波長(zhǎng)和角度作為附加變量,每一個(gè)光場(chǎng)的建立都是無限的向量集合,每個(gè)方向都有一個(gè)影響點(diǎn),長(zhǎng)度與其輻射成正比,而人的2只眼睛在接受光線位置和方向不同時(shí),會(huì)產(chǎn)生雙目視差、移動(dòng)視差、聚焦模糊和遮擋深淺等現(xiàn)象,只有將外部世界的完整光場(chǎng)信息實(shí)時(shí)、無損地復(fù)現(xiàn),才能實(shí)時(shí)再現(xiàn)人眼所見的視界。
由于光場(chǎng)的復(fù)雜性及復(fù)現(xiàn)場(chǎng)景的真實(shí)性挑戰(zhàn),光場(chǎng)一直被列為計(jì)算機(jī)深度算法及內(nèi)容開發(fā)的主要開發(fā)功能之一,將自己定位為集成光場(chǎng)、圖像識(shí)別、姿態(tài)分析、運(yùn)動(dòng)追蹤等于一體全球化人工智能算法科研公司的太平洋未來科技,他們展示了自主研發(fā)的實(shí)時(shí)光補(bǔ)償算法——AMreal Engine,這一套光場(chǎng)算法是否會(huì)是底層核心技術(shù)新的突破口?
太平洋未來科技 AMreal Engine實(shí)時(shí)光補(bǔ)償算法演示:
實(shí)時(shí)判斷光源,虛擬物體實(shí)時(shí)與真實(shí)環(huán)境光互動(dòng)補(bǔ)償
從上述Demo中看到,這一實(shí)時(shí)光補(bǔ)償算法直接在平板中操作進(jìn)行,運(yùn)行也相對(duì)順暢,虛擬物體(花盆)光影及光強(qiáng)隨光源變化實(shí)時(shí)發(fā)生互動(dòng)補(bǔ)償。
市場(chǎng)上主流光場(chǎng)算法演示:
虛擬物體僅根據(jù)實(shí)際光照發(fā)生亮度變化,不能判斷光源及實(shí)時(shí)追蹤互動(dòng)
為了有一個(gè)深度易懂的對(duì)比,不妨來看一下目前市場(chǎng)上主流的光場(chǎng)算法,在以上Demo演示中,運(yùn)行速率均為樂觀,但明顯能看出虛擬物體(球)影子始終未發(fā)生變化,僅根據(jù)實(shí)際光照發(fā)生亮度變化,不能判斷光源及實(shí)時(shí)追蹤互動(dòng)。
據(jù)太平洋未來科技創(chuàng)始人兼CEO李建億日前提及:“在所有風(fēng)口熱潮中,沒有捷徑,只有將根基打好,才能在創(chuàng)新中立足腳跟。公司從2016年初,就已經(jīng)在國(guó)際視覺設(shè)計(jì)師Mark Ruff的指導(dǎo)下,通過80臺(tái)單反相機(jī)收集光場(chǎng)環(huán)境與物體之間的關(guān)系,從而建立光場(chǎng),自主研發(fā)實(shí)時(shí)光補(bǔ)償算法AMreal Engine,不僅是為了核心底層深度算法有一個(gè)穩(wěn)扎穩(wěn)打的基底,更是為了行業(yè)軟、硬件能有一個(gè)融合發(fā)展且低成本的突破。目前,此實(shí)時(shí)光補(bǔ)償算法已經(jīng)提供給相關(guān)合作伙伴進(jìn)行技術(shù)評(píng)估、使用,SDK也即將上線?!?/p>
AMreal Engine實(shí)時(shí)光補(bǔ)償算法,從5D全光功能中,提取適當(dāng)?shù)?D貼片,通過單個(gè)圖像合集來確定光照,將光的顏色、光的強(qiáng)弱及光的方向,在三維空間里完整投射呈現(xiàn)。此實(shí)時(shí)光場(chǎng)補(bǔ)償算法不僅特別適用于移動(dòng)單目、雙目設(shè)備(如手機(jī)、平板及主流穿戴設(shè)備)及主流U3D渲染引擎;同時(shí)為開發(fā)者們解決了開發(fā)難度大、硬件匹配度高、生成速率慢等種種困難,提供從現(xiàn)實(shí)到虛擬再到現(xiàn)實(shí)的閉環(huán)沉浸空間,大大降低高質(zhì)量光場(chǎng)內(nèi)容的制作門檻。
太平洋未來科技 AMreal Engine 實(shí)時(shí)光補(bǔ)償算法原理
目前,市面上的光場(chǎng)算法,均只能呈現(xiàn)虛擬光與虛擬光之間的關(guān)系,光場(chǎng)引擎亦沒有辦法實(shí)時(shí)判斷主光源,無法讓虛擬物體與真實(shí)環(huán)境融合,或者需要昂貴的硬件、感光器去來收集光場(chǎng),不能滿足人眼不同深度的對(duì)焦沉浸感。太平洋未來科技實(shí)時(shí)光補(bǔ)償算法,在不需要昂貴成本的情況下,便能模擬實(shí)際光束融入現(xiàn)實(shí)空間中的情景,完整記錄光場(chǎng)信息,在實(shí)時(shí)捕捉真實(shí)世界的完整光場(chǎng)信息的同時(shí),進(jìn)行不失真的虛擬構(gòu)建,無需復(fù)雜的、多模組化的攝像頭,亦能完成實(shí)時(shí)同步的光場(chǎng)效果。
低硬件成本、高效、便捷的實(shí)時(shí)光補(bǔ)償算法不僅驅(qū)動(dòng)AR/AI產(chǎn)業(yè)底層技術(shù)革新,也將滲透到虛擬電商、影視制作、3D設(shè)計(jì)、工業(yè)監(jiān)測(cè)、航空、教育、醫(yī)療、文旅、博覽等各個(gè)領(lǐng)域。
期待行業(yè)先行者,開辟穩(wěn)扎穩(wěn)打的“無人區(qū)”,為科技創(chuàng)新核心技術(shù)發(fā)展加速;期待太平洋未來科技實(shí)時(shí)光補(bǔ)償算法SDK的開放DK的開放。