視頻Transformer模型在視頻理解、動作識別等任務中展現(xiàn)出強大性能,然而其高計算復雜度和內(nèi)存消耗限制了實際應用。為解決這一問題,本文從算法和硬件層面出發(fā),探討視頻Transformer模型的稀疏化加速方法,包括算法冗余剪枝和硬件并行架構設計。
去年,我們目睹了大型AI的爆炸性崛起,產(chǎn)生了全球性的熱情,使人工智能看起來像是所有問題的解決方案。今年,隨著大肆宣傳的減弱,大型模型進入了更深層次,目的是重塑各個行業(yè)的基本邏輯。在大數(shù)據(jù)處理領域,大型模型與傳統(tǒng)ETL(提取、轉換、負載)流程之間的沖突引發(fā)了新的爭論。