從大的方面來說語音交互可以分為三大主線
(文章來源:百家號(hào))
? ? ? ?相信大家如今在用智能手機(jī)的時(shí)候,很多時(shí)候都會(huì)用語音助手來幫助自己。但其實(shí)你知道,如今大部分汽車的汽車語音交互主要是通過方向盤上喚醒語音識(shí)別的按鈕來開啟的,可問題是現(xiàn)在的語音識(shí)別的準(zhǔn)確率并不高,還有很多問題需要結(jié)局。,而要搞清楚語音識(shí)別在哪里出現(xiàn)問題,首先需要了解整個(gè)語音交互的流程。從大的方面來說,語音交互可以分成語音識(shí)別、語義理解、語音合成三大主線。
在語音識(shí)別之前,首先需要做到語音喚醒,喚醒是人機(jī)交互的主要觸發(fā)方式,和跟一個(gè)人聊天首先要叫其名字是一個(gè)邏輯。機(jī)器被喚醒后,就需要知道說話人的方位,才可以定向地拾音,解決噪聲、混響、回聲帶來的影響,同時(shí)對(duì)說話人進(jìn)行語音增強(qiáng)。這個(gè)聲源定位和語音增強(qiáng)主要是用麥克風(fēng)陣列的相關(guān)技術(shù),要保證識(shí)別率滿足車載交互需求,還要有專門針對(duì)遠(yuǎn)場(chǎng)環(huán)境下基于大量數(shù)據(jù)訓(xùn)練的聲學(xué)模型,并解決人聲檢測(cè)和斷句問題,過濾無效語音,做出快速響應(yīng)。
語音交互必須解鎖的第二項(xiàng)技能是語義理解。相對(duì)完美的語義理解,不是指導(dǎo)式的,而是不設(shè)定規(guī)則或者語法的自然對(duì)話的。在語音模型中,一般有專門的模塊去判斷語音命令里的意圖,在語句中尋找關(guān)鍵參數(shù)。意圖與參數(shù)就構(gòu)成了這條語音命令所要表達(dá)的信息。比如說“我要去天安門”和“天安門在哪兒”對(duì)于系統(tǒng)來說是一樣的語義,“天安門”是參數(shù),“在哪兒”和“要去”是意圖。當(dāng)然,這些模型并不需要人去手動(dòng)逐個(gè)建立,也是通過大量的數(shù)據(jù)模型去訓(xùn)練機(jī)器。
完成語音識(shí)別和語義的理解后,機(jī)器再通過語音合成,把信息傳遞給用戶,構(gòu)成一個(gè)完整的語音交互回合。雖然語音交互存在已達(dá)半個(gè)多世紀(jì),車機(jī)、后視鏡、HUD等硬件都在使用語音交互,但仍然體驗(yàn)不佳,這其中有識(shí)別的原因,也有語義理解的原因,還有諸如不能糾錯(cuò)、指令式交互體驗(yàn)乏味、操作復(fù)雜等原因。很多交互方案還是觸屏+部分語音的方式,不同應(yīng)用中內(nèi)置不同的語音方案,造成了操作的煩瑣;還有的缺乏語音喚醒,不能真正解放雙手。
總體而言,基于終端大規(guī)模數(shù)據(jù)的收集和深度學(xué)習(xí)技術(shù)的出現(xiàn)使語音技術(shù)逐漸走向成熟,更好的語音交互需要用到更大體量的數(shù)據(jù)集以及更好的語音模型。雖然要花費(fèi)的時(shí)間很多,但值得期待的是,語音識(shí)別叫醒耳朵只是第一步,當(dāng)機(jī)器慢慢能夠聽懂人類的話,下一步必定是能夠親口說出“Hello World”,開啟真正的語音交互時(shí)代。