谷歌推出全新低功耗的離線語音識別模型
(文章來源:AI銳見)
語音識別是Siri、Alexa和Google等智能手機(jī)的重要組成部分,但這些語音識別系統(tǒng)有一個(gè)很大的缺點(diǎn),那就是會(huì)有相應(yīng)的延遲,用戶必須等待Siri或其他虛擬助手來響應(yīng)查詢,而且如果語速過快就有極大可能造成誤解。有延遲出現(xiàn)是因?yàn)橛脩舻恼Z音以及從中獲取的數(shù)據(jù)必須從要手機(jī)傳輸?shù)椒?wù)器,在那里進(jìn)行分析后再發(fā)回。這可能需要從幾毫秒到幾秒的時(shí)間,如果數(shù)據(jù)包在過程中不小心失,則需要更長時(shí)間。
為什么不能直接在設(shè)備上進(jìn)行語音識別呢?因?yàn)閷⒄Z音轉(zhuǎn)換成毫秒級的文本需要相當(dāng)大的計(jì)算能力,這不僅僅是聽一段聲音和寫一個(gè)單詞,而是逐字逐句地理解一個(gè)人在說什么以及涉及到意圖和整個(gè)語境。當(dāng)然,手機(jī)其實(shí)是可以做到這一點(diǎn)的,但這并不會(huì)比把手機(jī)上的內(nèi)容發(fā)送到云端快多少,而且會(huì)大量耗電。但隨著該領(lǐng)域的穩(wěn)步發(fā)展,這一目標(biāo)似乎已成為可能,谷歌就使得這一功能在Pixel上得到實(shí)現(xiàn)。
為實(shí)現(xiàn)這一轉(zhuǎn)變,Google團(tuán)隊(duì)花了五年時(shí)間研究問題并簡化用于語音識別的AI系統(tǒng)。例如,舊版Gboard的聽寫軟件由三個(gè)獨(dú)立的組件來模擬音頻波形,將聲音與音素匹配,然后將這些音素組合成文字輸出,更新后的版本將所有這些工作集合到一個(gè)步驟中。
新模型還縮小了系統(tǒng)中被稱為“解碼器圖形”的部分,這個(gè)組件的功能類似于書中的索引,將音頻波形與書面文字相匹配。在Gboard的聽寫模型的舊版本中,這個(gè)解碼器圖形大小為2GB,對于設(shè)備上處理來說太大了。相比之下,新版本僅為80兆字節(jié),縮小了25倍。
你只需要說出你的查詢,它會(huì)立刻被轉(zhuǎn)錄下來,并直接顯示。它聽到了你的聲音后會(huì)立刻響應(yīng),而不用等到你完成整個(gè)句子再去揣測你的意思。但目前它只在谷歌鍵盤應(yīng)用程序Gboard中工作,只在Pixel上工作,而且它只適用于美式英語。
“考慮到行業(yè)趨勢,隨著專業(yè)硬件和算法改進(jìn)的融合,我們希望這里介紹的技術(shù)可以很快用于更多語言和更廣泛的應(yīng)用領(lǐng)域,”谷歌寫道。