Google Brain推出語音識別新技術(shù)助力商業(yè)發(fā)展
受先前語音和視覺領(lǐng)域增強(qiáng)成功的啟發(fā),Google Brain最近提出了SpecAugment,一種數(shù)據(jù)增強(qiáng)方法,它操作輸入音頻的對數(shù)mel光譜圖,而不是原始音頻本身。SpecAugment方法不但非常簡單,計算成本也很低,因?yàn)樗苯幼饔糜趯?shù)mel光譜圖,而不需要額外的數(shù)據(jù)。這種簡單的方法非常有用,并使研究人員能夠訓(xùn)練端到端的監(jiān)聽參與和拼寫ASR網(wǎng)絡(luò)。
通過使用簡單的手工策略增加訓(xùn)練集,即使沒有語言模型的幫助,研究人員也能夠在端到端的LAS網(wǎng)絡(luò)上獲得librispeech 960h和Switchboard 300h超越混合系統(tǒng)的性能。它優(yōu)于復(fù)雜的混合系統(tǒng),通過使用更大的網(wǎng)絡(luò)和更長的訓(xùn)練時間,SpecAugment能夠達(dá)到最先進(jìn)的效果。
全球自動語音識別(ASR)市場預(yù)計在2016年至2024年間以超過15%的復(fù)合年增長率增長。隨著先進(jìn)電子設(shè)備的飛速使用,人們對開發(fā)尖端功能和效率的需求越來越大,這樣的功能和效率提高了應(yīng)用的ASR精度。SpecAugment顯著提高了ASR的性能,并可能成為人工智能工程師驅(qū)動下一代ASR應(yīng)用程序所需的必要條件,這些應(yīng)用程序包括機(jī)器人、交互式語音響應(yīng)、自定義詞典、視頻游戲、語音驗(yàn)證、家用電器等。
使用一維CNN的端到端環(huán)境聲音分類模型,加拿大的一組研究人員最近提出了一個端到端的一維CNN環(huán)境聲音分類模型。根據(jù)音頻信號的長度,該模型由3-5個卷積層組成。與許多傳統(tǒng)方法實(shí)現(xiàn)二維表示的傳統(tǒng)模型不同,這一模型是直接從音頻波形中學(xué)習(xí)分類器。
在對包含8732個音頻樣本的數(shù)據(jù)集進(jìn)行評估時,新方法演示了幾種相關(guān)的分類器表示,其結(jié)果超越了現(xiàn)有的基于二維實(shí)例和二維CNN的最優(yōu)效果。此外,在環(huán)境聲音分類方面,該模型比大多數(shù)其他CNN體系結(jié)構(gòu)的參數(shù)都要少,與傳統(tǒng)的二維體系結(jié)構(gòu)相比,平均精度要高出11%到27%。
根據(jù)這篇論文的評價結(jié)果,該方法在提供高度魯棒的環(huán)境聲音分類應(yīng)用上具有很好的應(yīng)用前景。
對于初學(xué)者來說,它的效率很高,與傳統(tǒng)的2D CNN相比,它只需要很少的訓(xùn)練數(shù)據(jù)(后者需要數(shù)百萬個訓(xùn)練參數(shù))。它還實(shí)現(xiàn)了最先進(jìn)的性能,可以通過實(shí)現(xiàn)滑動窗口處理任意長度的音頻信號。最后,它緊湊的體系結(jié)構(gòu)大大降低了計算成本。