視頻Transformer模型在視頻理解、動作識別等任務(wù)中展現(xiàn)出強(qiáng)大性能,然而其高計(jì)算復(fù)雜度和內(nèi)存消耗限制了實(shí)際應(yīng)用。為解決這一問題,本文從算法和硬件層面出發(fā),探討視頻Transformer模型的稀疏化加速方法,包括算法冗余剪枝和硬件并行架構(gòu)設(shè)計(jì)。
去年,我們目睹了大型AI的爆炸性崛起,產(chǎn)生了全球性的熱情,使人工智能看起來像是所有問題的解決方案。今年,隨著大肆宣傳的減弱,大型模型進(jìn)入了更深層次,目的是重塑各個(gè)行業(yè)的基本邏輯。在大數(shù)據(jù)處理領(lǐng)域,大型模型與傳統(tǒng)ETL(提取、轉(zhuǎn)換、負(fù)載)流程之間的沖突引發(fā)了新的爭論。