版權(quán)說(shuō)明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請(qǐng)進(jìn)行舉報(bào)或認(rèn)領(lǐng)
文檔簡(jiǎn)介
1、目前常用的魯棒語(yǔ)音識(shí)別研究主要是基于測(cè)試環(huán)境和訓(xùn)練環(huán)境的失配問(wèn)題提出的,例如魯棒語(yǔ)音特征參數(shù)提取、特征補(bǔ)償和模式自適應(yīng)的方法,這些魯棒性算法的研究出發(fā)點(diǎn)都是要保證測(cè)試特征參數(shù)和訓(xùn)練特征參數(shù)模型的一致性。
而人耳聽(tīng)覺(jué)系統(tǒng)的語(yǔ)音信號(hào)處理系統(tǒng)具有較強(qiáng)的魯棒性,能夠在極其嘈雜的聲學(xué)環(huán)境下實(shí)現(xiàn)準(zhǔn)確的語(yǔ)音感知和識(shí)別。相關(guān)研究指出人耳聽(tīng)覺(jué)感知過(guò)程可以分為兩個(gè)階段:第一,聲學(xué)信號(hào)的切分(segmentation)過(guò)程,第二,屬于同一聲學(xué)目標(biāo)的
2、感知成分的組合(grouping)過(guò)程,從而形成不同聲源連貫的數(shù)據(jù)流(coherent stream)。也就是說(shuō)聽(tīng)覺(jué)系統(tǒng)的感知過(guò)程,實(shí)際上是聽(tīng)覺(jué)場(chǎng)景中不同聲源信號(hào)的重組織過(guò)程,混合聲信號(hào)中屬于同一聲源的分量組織到一個(gè)數(shù)據(jù)流中,從而得到不同聲源的數(shù)據(jù)流,使得人耳的聽(tīng)覺(jué)系統(tǒng)可以區(qū)分不同的聲源。在此基礎(chǔ)上,再進(jìn)行進(jìn)一步的處理。因此從人耳聲信號(hào)處理的機(jī)制出發(fā),對(duì)基于語(yǔ)音分離的魯棒識(shí)別方法進(jìn)行研究。
考慮到由于基于方位信息的語(yǔ)音分離與語(yǔ)
3、音信號(hào)內(nèi)容、說(shuō)話人無(wú)關(guān),同時(shí)基于空間方位信息的語(yǔ)音分離無(wú)需建立源信號(hào)參數(shù)的統(tǒng)計(jì)模型。由于空間分離后,特征參數(shù)存在數(shù)據(jù)丟失的問(wèn)題,因此本論文將基于空間分離的語(yǔ)音分離方法和基于丟失數(shù)據(jù)的語(yǔ)音識(shí)別方法進(jìn)行了結(jié)合,提出了融合空間方位分離和丟失數(shù)據(jù)的孤立詞識(shí)別算法。本論文的主要工作如下:
(1)對(duì)語(yǔ)音識(shí)別系統(tǒng)的基本結(jié)構(gòu)進(jìn)行了概述,包括預(yù)處理、特征提取與HMM語(yǔ)音模型。具體分析了現(xiàn)有魯棒語(yǔ)音識(shí)別技術(shù)在信號(hào)空間、特征空間與模型空間所包含的代
4、表性的技術(shù)。并由此引入本文的重點(diǎn)研究?jī)?nèi)容:基于丟失數(shù)據(jù)的語(yǔ)音識(shí)別技術(shù)。
(2)分析了現(xiàn)有魯棒識(shí)別系統(tǒng)經(jīng)常使用的語(yǔ)音特征參數(shù),包括倒譜域中的梅爾倒譜系數(shù)(MFCC)和線性預(yù)測(cè)倒譜系數(shù)(LPCC)?;趤G失數(shù)據(jù)技術(shù)的基本原理,本文研究了另外兩種頻域中的參數(shù):基于梅爾濾波器組的FBANK參數(shù)和基于Gammatone濾波器組的子帶RateMap參數(shù),并基于HMM通過(guò)Matlab進(jìn)行仿真測(cè)試,實(shí)驗(yàn)表明,這兩種參數(shù)可以應(yīng)用于基于丟失數(shù)據(jù)的
5、語(yǔ)音識(shí)別系統(tǒng)之中。
(3)實(shí)現(xiàn)了基于空間分離和丟失數(shù)據(jù)技術(shù)的語(yǔ)音識(shí)別系統(tǒng)?;诳臻g信息的語(yǔ)音分離算法基于語(yǔ)音信號(hào)的稀疏性生成不同聲源的二元掩膜,這種判決方式會(huì)產(chǎn)生目標(biāo)聲源頻域成分丟失的問(wèn)題。本文研究了兩種算法對(duì)丟失的數(shù)據(jù)部分進(jìn)行處理。一種是完全忽略數(shù)據(jù)的丟失部分,僅使用未丟失的數(shù)據(jù)進(jìn)行語(yǔ)音識(shí)別,即邊緣概率技術(shù)。另一種是通過(guò)特定的方法恢復(fù)數(shù)據(jù)的丟失部分,得到完整的數(shù)據(jù)用來(lái)進(jìn)行語(yǔ)音識(shí)別,即數(shù)據(jù)估計(jì)技術(shù)。仿真實(shí)驗(yàn)表明兩種技術(shù)在低信噪
溫馨提示
- 1. 本站所有資源如無(wú)特殊說(shuō)明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請(qǐng)下載最新的WinRAR軟件解壓。
- 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請(qǐng)聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
- 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁(yè)內(nèi)容里面會(huì)有圖紙預(yù)覽,若沒(méi)有圖紙預(yù)覽就沒(méi)有圖紙。
- 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
- 5. 眾賞文庫(kù)僅提供信息存儲(chǔ)空間,僅對(duì)用戶上傳內(nèi)容的表現(xiàn)方式做保護(hù)處理,對(duì)用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對(duì)任何下載內(nèi)容負(fù)責(zé)。
- 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請(qǐng)與我們聯(lián)系,我們立即糾正。
- 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時(shí)也不承擔(dān)用戶因使用這些下載資源對(duì)自己和他人造成任何形式的傷害或損失。
最新文檔
- 基于HMM和ANN的語(yǔ)音識(shí)別算法研究.pdf
- 基于數(shù)據(jù)重構(gòu)的子空間人臉識(shí)別算法研究.pdf
- 基于盲源分離的語(yǔ)音數(shù)據(jù)加密算法.pdf
- 基于matlab的語(yǔ)音識(shí)別算法研究
- 基于聲控小車(chē)的語(yǔ)音識(shí)別算法研究.pdf
- 語(yǔ)音識(shí)別算法的研究.pdf
- 基于HMM和ANN的漢語(yǔ)數(shù)字語(yǔ)音識(shí)別算法研究.pdf
- 基于HMM和DNN的語(yǔ)音識(shí)別算法研究與實(shí)現(xiàn).pdf
- 基于VQ和DTW相結(jié)合的語(yǔ)音識(shí)別算法研究.pdf
- 基于HMM建模的語(yǔ)音識(shí)別算法的研究.pdf
- 基于雙耳空間信息的語(yǔ)音分離研究.pdf
- 基于OBSI和特征選擇的語(yǔ)音情感識(shí)別算法.pdf
- 基于DSP的語(yǔ)音識(shí)別算法研究與實(shí)現(xiàn).pdf
- 基于空間定位的混疊語(yǔ)音的分離.pdf
- 語(yǔ)音盲分離算法研究.pdf
- 孤立詞語(yǔ)音識(shí)別算法的研究和實(shí)現(xiàn).pdf
- 基于語(yǔ)音識(shí)別技術(shù)的發(fā)音糾錯(cuò)算法的研究.pdf
- 基于時(shí)頻分析的音樂(lè)識(shí)別和歌聲分離算法研究.pdf
- 語(yǔ)音盲分離算法的研究.pdf
- 基于盲源分離的車(chē)載語(yǔ)音增強(qiáng)算法研究.pdf
評(píng)論
0/150
提交評(píng)論