基于DSP和FPGA的機器人聲控系統(tǒng)設計與實現
1 引言
機器人聽覺系統(tǒng)主要是對人的聲音進行語音識別并做出判斷,然后輸出相應的動作指令控制頭部和手臂的動作,傳統(tǒng)的機器人聽覺系統(tǒng)一般是以PC機為平臺對機器人進行控制,其特點是用一臺計算機作為機器人的信息處理核心通過接口電路對機器人進行控制,雖然處理能力比較強大,語音庫比較完備,系統(tǒng)更新以及功能拓展比較容易,但是比較笨重,不利于機器人的小型化和復雜條件下進行工作,此外功耗大、成本高。
本次設計采用了性價比較高的數字信號處理芯片TMS320VC5509作為語音識別處理器,具有較快的處理速度,使機器人在脫機狀態(tài)下,獨立完成復雜的語音信號處理和動作指令控制,FPGA系統(tǒng)的開發(fā)降低了時序控制電路和邏輯電路在PCB板所占的面積[1],使機器人的"大腦"的語音處理部分微型化、低功耗。一個體積小、低功耗、高速度能完成特定范圍語音識別和動作指令的機器人系統(tǒng)的研制具有很大的實際意義。
2 系統(tǒng)硬件總體設計
系統(tǒng)的硬件功能是實現語音指令的采集和步進電機的驅動控制,為系統(tǒng)軟件提供開發(fā)和調試平臺。如圖1所示。
FPGA根據DSP輸入的動作指令產生正確的正反轉信號和準確的脈沖給步進電機驅動芯片,驅動芯片提供步進電機的驅動信號,控制步進電機的轉動。片外FLASH用于存儲系統(tǒng)程序和語音庫并完成系統(tǒng)的上電加載。JTAG口用于與PC機進行聯機在線仿真,鍵盤則用于參數調整和功能的切換。
3 語音識別系統(tǒng)設計
3.1 語音信號的特點
語音信號的頻率成分主要分布在300~3400Hz之間,根據采樣定理選擇信號的采樣率為8 kHz。語音信號的一個特點在于他的"短時性",有時在一個短時段呈現隨機噪聲的特性,而另一段表現周期信號的特性,或二者兼而有之。語音信號的特征是隨時間變化的,只有一段時間內,信號才表現穩(wěn)定一致的特征,一般來說短時段可取5~50 ms,因此語音信號的處理要建立在其"短時性"上[2],系統(tǒng)將語音信號幀長設為20 ms,幀移設為10 ms,則每幀數據為160×16 b。
3.2 語音信號的采集和播放
語音采集和播放芯片采用的是TI公司生產的TLV320AIC23B,TLV320AIC23B的模數轉換(ADC)和數模轉換(DAC)部件高度集成在芯片內部,芯片采用8 k采樣率,單聲道模擬信號輸入,雙聲道輸出。TLV320AIC23具有可編程特性,DSP可通過控制接口來編輯該器件的控制寄存器,而且能夠編譯SPI,I2C兩種規(guī)格的接口,TLV320AIC23B與DSP5509的電路連接如圖2所示。
MCBSP串口通過6個引腳CLKX,CLKR,FSX,FSR,DR和CX與TLV320AIC23相連。數據經MCBSP串口與外設的通信通過DR和DX引腳傳輸,控制同步信號則由CLKX,CLKR,FSX,FSR四個引腳實現。將MCBSP串口設置為DSP Mode模式,然后使串口的接收器和發(fā)送器同步,并且由TLV320AIC23的幀同步信號LRCIN,LRCOUT啟動串口傳輸,同時將發(fā)送接收的數據字長設定為32 b(左聲道16 b,右聲道16 b)單幀模式。
3.3 語音識別程序模塊的設計
為了實現機器人對非特定人語音指令的識別,系統(tǒng)采用非特定人的孤立詞識別系統(tǒng)。非特定人的語音識別是指語音模型由不同年齡、不同性別、不同口音的人進行訓練,在識別時不需要訓練就可以識別說話人的語音[2]。系統(tǒng)分為預加重和加窗,短點檢測,特征提取,與語音庫的模式匹配和訓練幾個部分。
3.3.1 語音信號的預加重和加窗
預加重處理主要是去除聲門激勵和口鼻輻射的影響,預加重數字濾波H(Z)=1一KZ-1,其中是為預加重系數,接近1,本系統(tǒng)中k取0.95。對語音序列X(n)進行預加重,得到預加重后的語音序列x(n):x(n)=X(n)一kX(n一1) (1)
系統(tǒng)采用一個有限長度的漢明窗在語音序列上進行滑動,用以截取幀長為20 ms,幀移設為10 ms的語音信號,采用漢明窗可以有效減少信號特征的丟失。
3.3.2 端點檢測
端點檢測在詞與詞之間有足夠時間間隙的情況下檢測出詞的首末點,一般采用檢測短時能量分布,方程為:
其中,x(n)為漢明窗截取語音序列,序列長度為160,所以N取160,為對于無音信號E(n)很小,而對于有音信號E(n)會迅速增大為某一數值,由此可以區(qū)分詞的起始點和結束點。
3.3.3特征向量提取
特征向量是提取語音信號中的有效信息,用于進一步的分析處理。目前常用的特征參數包括線性預測倒譜系數LPCC、美爾倒譜系數MFCC等。語音信號特征向量采用Mel頻率倒譜系數MFCC(Mel Frequency Cepstrum Coeficient的提取,MFCC參數是基于人的聽覺特性的,他利用人聽覺的臨界帶效應[3],采用MEL倒譜分析技術對語音信號處理得到MEL倒譜系數矢量序列,用MEL倒譜系數表示輸入語音的頻譜。在語音頻譜范圍內設置若干個具有三角形或正弦形濾波特性的帶通濾波器,然后將語音能量譜通過該濾波器組,求各個濾波器輸出,對其取對數,并做離散余弦變換(DCT),即可得到MFCC系數。MFCC系數的變換式可簡化為:
其中,i為三角濾波器的個數,本系統(tǒng)選P為16,F(k)為各個濾波器的輸出數據,M為數據長度。
3.3.4 語音信號的模式匹配和訓練
模型訓練即將特征向量進行訓練建立模板,模式匹配即將當前特征向量與語音庫中的模板進行匹配得出結果。語音庫的模式匹配和訓練采用隱馬爾可夫模型HMM(Hidden Markov Models),他是一種統(tǒng)計隨機過程統(tǒng)計特性的概率模型一個雙重隨機過程,因為隱馬爾可夫模型能夠很好地描述語音信號的非平穩(wěn)性和可變性,因此得到廣泛的使用[4]。
HMM的基本算法有3種:Viterbi算法,前向一后向算法,Baum-Welch算法。本次設計使用Viterbi算法進行狀態(tài)判別,將采集語音的特征向量與語音庫的模型進行模式匹配。Baum-Welch算法用來解決語音信號的訓練,由于模型的觀測特征是幀間獨立的,從而可以使用Baum-Welch算法進行HMM模型的訓練。
3.4 語音識別程序的DSP開發(fā)
DSP的開發(fā)環(huán)境為CCS3.1及。DSP/BIOS,將語音識別和訓練程序分別做成模塊,定義為不同的函數,在程序中調用。定義語音識別器函數為int Recognizer(int Micin),識別結果輸出函數為int Result(void),語音訓練器函數為int Train(int Tmode,int Audiod),動作指令輸入函數為int Keyin(int Action[5])。
語音識別器的作用是將當前語音輸入變換成語音特征向量,并對語音庫的模板進行匹配并輸出結果,語音應答輸出函數將獲取的語音識別結果對應的語音應答輸出,語音訓練是將多個不同年齡、不同性別、不同口音的人語音指令輸入轉化為訓練庫的模板。為防止樣本錯誤,每個人的語音指令需要訓練2次,對于2次輸入用用歐氏距離去進行模式匹配,若2次輸入相似度達到95%,則加入樣本集。語音應答輸入函數是為每個語音庫中模板輸入對立的語音輸出,以達到語言應答目的。系統(tǒng)工作狀態(tài)為執(zhí)行語言識別子程序,訓練時執(zhí)行外部中斷,執(zhí)行訓練函數,取得數據庫模板,訓練完畢返回。程序框圖如圖3所示。
4.1 FPGA邏輯設計
系統(tǒng)通過語音控制機器人頭部動作,頭部運動分為上下和左右運動2個自由度,需要2個步進電機控制,DSF完成語音識別以后,輸出相應的動作指令,動作執(zhí)行結束后,DSP發(fā)出歸零指令,頭部回到初試狀態(tài)。FPGA的作用是提供DSP接口邏輯,設置存儲DSP指令的RAM塊,同時產生步進電機驅動脈沖控制步進電機轉動方向和角度。
FPGA器件為動作指令控制單元,設計采用FLEXlOKE芯片,接收DSP數據后并行控制2路步進電機。FPGA內部結構邏輯如圖4所示,FPGA內部設置2個元件為電機脈沖發(fā)生器,控制電機的工作脈沖以及正反轉。AO~A7為DSP數據輸入端口,WR為數據寫端口,P1,P2為2個步進電機驅動芯片脈沖輸入口,L1,L2為電機正反轉控制口,ENABLE為使能信號。
4.2 FPGA邏輯仿真
FPGA以MAX-PLUSⅡ開發(fā)平臺,用語言為VHDL語言對上述邏輯功能進行設計,并通過JTAG接口進行了調試,FLEXl0KE芯片能夠根據DSP輸出指令輸出正確的正反轉信號和脈沖波形。
4.3 步進電機驅動設計
FPGA通過P1,L1,P2,L2輸出控制控制步進電機驅動芯片。步進電機驅動采用的是東芝公司生產的單片正弦細分二相步進電機驅動專用芯片TA8435H,FPGA與TA8435H電路連接如圖6。
5 結 語
系統(tǒng)充分利用了DSP的高處理速度和可擴展的片外存儲空間,具有高速、實時、識別率高的特點并支持大的語音庫,FPGA的使用使系統(tǒng)電路獲得簡化,一片FLEXl0KE芯片可以完成2個步進電機的時序控制。雖然在處理速度和語音庫的存儲容量上與PC機系統(tǒng)具有一定的差距,但在機器人的微型化、低功耗和特定功能實現上,以DSP和FPGA為核心的嵌入式系統(tǒng)無疑具有廣闊的前景。