語音技術(shù)必將成為未來主要的人機(jī)互動(dòng)接口之一
掃描二維碼
隨時(shí)隨地手機(jī)看文章
語音識別自半個(gè)世紀(jì)前誕生以來,一直處于不溫不火的狀態(tài),直到 2009 年深度學(xué)習(xí)技術(shù)的長足發(fā)展才使得語音識別的精度大大提高,雖然還無法進(jìn)行無限制領(lǐng)域、無限制人群的應(yīng)用,但也在大多數(shù)場景中提供了一種便利高效的溝通方式。本篇文章將從技術(shù)和產(chǎn)業(yè)兩個(gè)角度來回顧一下語音識別發(fā)展的歷程和現(xiàn)狀,并分析一些未來趨勢,希望能幫助更多年輕技術(shù)人員了解語音行業(yè),并能產(chǎn)生興趣投身于這個(gè)行業(yè)。
語音識別,通常稱為自動(dòng)語音識別,英文是Automatic Speech RecogniTIon,縮寫為 ASR,主要是將人類語音中的詞匯內(nèi)容轉(zhuǎn)換為計(jì)算機(jī)可讀的輸入,一般都是可以理解的文本內(nèi)容,也有可能是二進(jìn)制編碼或者字符序列。但是,我們一般理解的語音識別其實(shí)都是狹義的語音轉(zhuǎn)文字的過程,簡稱語音轉(zhuǎn)文本識別( Speech To Text, STT )更合適,這樣就能與語音合成(Text To Speech, TTS )對應(yīng)起來。
深度學(xué)習(xí)技術(shù)自 2009 年興起之后,已經(jīng)取得了長足進(jìn)步。語音識別的精度和速度取決于實(shí)際應(yīng)用環(huán)境,但在安靜環(huán)境、標(biāo)準(zhǔn)口音、常見詞匯場景下的語音識別率已經(jīng)超過 95%,意味著具備了與人類相仿的語言識別能力,而這也是語音識別技術(shù)當(dāng)前發(fā)展比較火熱的原因。
語音識別的端到端方法主要是代價(jià)函數(shù)發(fā)生了變化,但神經(jīng)網(wǎng)絡(luò)的模型結(jié)構(gòu)并沒有太大變化??傮w來說,端到端技術(shù)解決了輸入序列的長度遠(yuǎn)大于輸出序列長度的問題。端到端技術(shù)主要分成兩類:一類是 CTC 方法,另一類是 Sequence-to-Sequence 方法。傳統(tǒng)語音識別 DNN-HMM 架構(gòu)里的聲學(xué)模型,每一幀輸入都對應(yīng)一個(gè)標(biāo)簽類別,標(biāo)簽需要反復(fù)的迭代來確保對齊更準(zhǔn)確。
目前,主流語音識別框架還是由 3 個(gè)部分組成:聲學(xué)模型、語言模型和解碼器,有些框架也包括前端處理和后處理。隨著各種深度神經(jīng)網(wǎng)絡(luò)以及端到端技術(shù)的興起,聲學(xué)模型是近幾年非常熱門的方向,業(yè)界都紛紛發(fā)布自己新的聲學(xué)模型結(jié)構(gòu),刷新各個(gè)數(shù)據(jù)庫的識別記錄。由于中文語音識別的復(fù)雜性,國內(nèi)在聲學(xué)模型的研究進(jìn)展相對更快一些,主流方向是更深更復(fù)雜的神經(jīng)網(wǎng)絡(luò)技術(shù)融合端到端技術(shù)。
開源語音識別 Kaldi 是業(yè)界語音識別框架的基石。Kaldi 的作者 Daniel Povey 一直推崇的是 Chain 模型。該模型是一種類似于 CTC 的技術(shù),建模單元相比于傳統(tǒng)的狀態(tài)要更粗顆粒一些,只有兩個(gè)狀態(tài),一個(gè)狀態(tài)是 CD Phone,另一個(gè)是 CD Phone 的空白,訓(xùn)練方法采用的是 Lattice-Free MMI 訓(xùn)練。該模型結(jié)構(gòu)可以采用低幀率的方式進(jìn)行解碼,解碼幀率為傳統(tǒng)神經(jīng)網(wǎng)絡(luò)聲學(xué)模型的三分之一,而準(zhǔn)確率相比于傳統(tǒng)模型有非常顯著的提升。
語音識別這半個(gè)多世紀(jì)的產(chǎn)業(yè)歷程中,其中共有三個(gè)關(guān)鍵節(jié)點(diǎn),兩個(gè)和技術(shù)有關(guān),一個(gè)和應(yīng)用有關(guān)。第一個(gè)關(guān)鍵節(jié)點(diǎn)是 1988 年的一篇博士論文,開發(fā)了第一個(gè)基于隱馬爾科夫模型(HMM)的語音識別系統(tǒng)—— Sphinx,當(dāng)時(shí)實(shí)現(xiàn)這一系統(tǒng)的正是現(xiàn)在的著名投資人李開復(fù)。
從 1986 年到 2010 年,雖然混合高斯模型效果得到持續(xù)改善,而被應(yīng)用到語音識別中,并且確實(shí)提升了語音識別的效果,但實(shí)際上語音識別已經(jīng)遭遇了技術(shù)天花板,識別的準(zhǔn)確率很難超過 90%。很多人可能還記得,在 1998 年前后 IBM、微軟都曾經(jīng)推出和語音識別相關(guān)的軟件,但最終并未取得成功。
所有語音交互產(chǎn)品都是端到端打通的產(chǎn)品,如果每家廠商都從這些基礎(chǔ)技術(shù)來打造產(chǎn)品,那就每家都要建立自己云服務(wù)穩(wěn)定,確保響應(yīng)速度,適配自己所選擇的硬件平臺,逐項(xiàng)整合具體的內(nèi)容(比如音樂、有聲讀物)。這從產(chǎn)品方或者解決方案商的視角來看是不可接受的。這時(shí)候就會催生相應(yīng)的平臺服務(wù)商,它要同時(shí)解決技術(shù)、內(nèi)容接入和工程細(xì)節(jié)等問題,最終達(dá)成試錯(cuò)成本低、體驗(yàn)卻足夠好的目標(biāo)。
類比過去的 Android,語音交互的平臺提供商們其實(shí)面臨更大的挑戰(zhàn),發(fā)展過程可能會更加的曲折。過去經(jīng)常被提到的操作系統(tǒng)的概念在智能語音交互背景下事實(shí)上正被賦予新的內(nèi)涵,它日益被分成兩個(gè)不同但必須緊密結(jié)合的部分。
這兩邊在操作上,屬性具有巨大差異。解決前者需要參與到傳統(tǒng)的產(chǎn)品生產(chǎn)制造鏈條中去,而解決后者則更像應(yīng)用商店的開發(fā)者。這里面蘊(yùn)含著巨大的挑戰(zhàn)和機(jī)遇。在過去功能型操作系統(tǒng)的打造過程中,國內(nèi)的程序員們更多的是使用者的角色,但智能型操作系統(tǒng)雖然也可以參照其他,但這次必須自己來從頭打造完整的系統(tǒng)。(國外巨頭不管在中文相關(guān)的技術(shù)上還是內(nèi)容整合上事實(shí)上都非常薄弱,不存在侵略國內(nèi)市場的可能性)
人與數(shù)字世界的接口,在現(xiàn)在越來越統(tǒng)一于具體的產(chǎn)品形態(tài)(比如手機(jī)),但隨著智能型系統(tǒng)的出現(xiàn),這種統(tǒng)一則會越來越統(tǒng)一于系統(tǒng)本身。作為結(jié)果這會帶來數(shù)據(jù)化程度的持續(xù)加深,我們越來越接近一個(gè)百分百數(shù)據(jù)化的世界。