版權(quán)說(shuō)明:本文檔由用戶(hù)提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請(qǐng)進(jìn)行舉報(bào)或認(rèn)領(lǐng)
文檔簡(jiǎn)介
1、近十幾年來(lái),相較于傳統(tǒng)身份認(rèn)證方法,生物身份認(rèn)證技術(shù)得到了研究人員的廣泛關(guān)注和深入研究,其中說(shuō)話人識(shí)別(speaker recognition)技術(shù)是一個(gè)新的研究方向。說(shuō)話人識(shí)別即為通過(guò)人的聲音來(lái)判斷其身份,同目前已在實(shí)際當(dāng)中廣泛應(yīng)用的指紋,面部特征,眼睛虹膜識(shí)別一樣,都屬于生物身份認(rèn)證技術(shù)。與其他生物身份認(rèn)證技術(shù)相比,說(shuō)話人識(shí)別具有很大優(yōu)勢(shì),如:生物特征采集所用設(shè)備普及度高,整個(gè)認(rèn)證過(guò)程無(wú)侵襲性等。因此,將說(shuō)話人識(shí)別應(yīng)用于實(shí)際意義重大
2、。但是,現(xiàn)實(shí)應(yīng)用中普遍存在的語(yǔ)音缺失和環(huán)境噪聲問(wèn)題,對(duì)說(shuō)話人識(shí)別方法的魯棒性提出了很高的要求,這也成為說(shuō)話人識(shí)別方法研究當(dāng)中的難題。目前,幾乎所有的說(shuō)話人識(shí)別方法都是基于模型匹配的思想,所以研究重點(diǎn)都集中在說(shuō)話人模型的建立上面。常見(jiàn)的方法中,高斯混合模型(Gaussian Mixture Model,GMM)應(yīng)用最多,特別是在其基礎(chǔ)上發(fā)展而來(lái)的高斯混合-通用背景模型(Gaussian Mixture Model-Universal Ba
3、ckground Model,GMM-UBM)和高斯混合-支持向量機(jī)模型(Gaussian Mixture Model-SupportVector Machine,GMM-SVM)都取得了非常不錯(cuò)的識(shí)別效果。但是對(duì)于只有少量語(yǔ)音數(shù)據(jù)或環(huán)境存在噪聲的情況,識(shí)別率明顯下降,雖然有許多改進(jìn)的方法相繼提出,但識(shí)別的魯棒性離實(shí)際要求還是有不小的差距。針對(duì)上述問(wèn)題,本文主要研究少量數(shù)據(jù)以及訓(xùn)練和測(cè)試環(huán)境不同時(shí)存在噪聲情況下的魯棒說(shuō)話人識(shí)別方法。
4、r> 本研究首先針對(duì)只存在少量語(yǔ)音數(shù)據(jù)的問(wèn)題,提出一種基于稀疏編碼的說(shuō)話人識(shí)別方法。該方法在訓(xùn)練階段,分別為每個(gè)說(shuō)話人訓(xùn)練字典,然后根據(jù)重構(gòu)誤差進(jìn)行打分識(shí)別。在不含噪聲且數(shù)據(jù)不充分的情況下,將傳統(tǒng)經(jīng)典的GMM-UBM和GMM-SVM方法與所提出方法進(jìn)行對(duì)比。然后,在目前應(yīng)用形態(tài)成分分析(Morphological Component Analysis,MCA)的說(shuō)話人識(shí)別方法基礎(chǔ)上,借鑒GMM-UBM的思想,提出一種新的說(shuō)話人識(shí)別方法
溫馨提示
- 1. 本站所有資源如無(wú)特殊說(shuō)明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請(qǐng)下載最新的WinRAR軟件解壓。
- 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請(qǐng)聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶(hù)所有。
- 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁(yè)內(nèi)容里面會(huì)有圖紙預(yù)覽,若沒(méi)有圖紙預(yù)覽就沒(méi)有圖紙。
- 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
- 5. 眾賞文庫(kù)僅提供信息存儲(chǔ)空間,僅對(duì)用戶(hù)上傳內(nèi)容的表現(xiàn)方式做保護(hù)處理,對(duì)用戶(hù)上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對(duì)任何下載內(nèi)容負(fù)責(zé)。
- 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請(qǐng)與我們聯(lián)系,我們立即糾正。
- 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時(shí)也不承擔(dān)用戶(hù)因使用這些下載資源對(duì)自己和他人造成任何形式的傷害或損失。
最新文檔
- 基于稀疏編碼的魯棒說(shuō)話人識(shí)別方法研究.pdf
- 基于稀疏表示的魯棒性說(shuō)話人識(shí)別技術(shù)研究.pdf
- 基于壓縮感知的魯棒性說(shuō)話人識(shí)別.pdf
- 說(shuō)話人識(shí)別魯棒性研究.pdf
- 說(shuō)話人識(shí)別魯棒性增強(qiáng)研究.pdf
- 基于含噪短語(yǔ)音的魯棒說(shuō)話人識(shí)別研究.pdf
- 基于IP網(wǎng)絡(luò)的魯棒性說(shuō)話人識(shí)別技術(shù)研究.pdf
- 噪聲環(huán)境中說(shuō)話人識(shí)別魯棒性研究.pdf
- 基于拓展和聚類(lèi)的情感魯棒說(shuō)話人識(shí)別研究.pdf
- 基于改進(jìn)特征參數(shù)的說(shuō)話人識(shí)別魯棒性研究.pdf
- 基于壓縮感知的魯棒性說(shuō)話人識(shí)別技術(shù)研究.pdf
- 基于稀疏表示的說(shuō)話人識(shí)別研究.pdf
- 基于稀疏表示的短語(yǔ)音說(shuō)話人識(shí)別.pdf
- 說(shuō)話人識(shí)別系統(tǒng)的魯棒性研究與實(shí)現(xiàn).pdf
- 信道魯棒的文本相關(guān)說(shuō)話人識(shí)別及應(yīng)用.pdf
- 說(shuō)話人識(shí)別及其在噪聲環(huán)境下的魯棒性研究.pdf
- 基于缺失特征的文本無(wú)關(guān)說(shuō)話人識(shí)別魯棒性研究.pdf
- 基于稀疏表示的魯棒性人臉識(shí)別算法的研究.pdf
- 信道魯棒的文本無(wú)關(guān)說(shuō)話人識(shí)別及應(yīng)用.pdf
- 基于稀疏表示和信道補(bǔ)償?shù)恼f(shuō)話人識(shí)別.pdf
評(píng)論
0/150
提交評(píng)論