版權(quán)說明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請進(jìn)行舉報(bào)或認(rèn)領(lǐng)
文檔簡介
1、說話人識(shí)別,又稱聲紋識(shí)別,是根據(jù)說話人語音來識(shí)別說話人身份的一種技術(shù),屬于當(dāng)前最熱門的生物特征識(shí)別技術(shù)之一。和其它生物特征識(shí)別相比,只有說話人識(shí)別支持遠(yuǎn)程認(rèn)證。隨著智能手機(jī)的不斷普及,語音采集變得更加方便,說話人識(shí)別的優(yōu)點(diǎn)更加突出。在移動(dòng)互聯(lián)網(wǎng)環(huán)境下,用戶只需要通過手機(jī)錄制一小段語音即可完成遠(yuǎn)程身份認(rèn)證,而不需要接觸特殊的設(shè)備,因此用戶接受度高。正是因?yàn)樯鲜鲞@些優(yōu)勢,說話人識(shí)別受到了廣泛的關(guān)注與研究。
近年來,深度學(xué)習(xí)在很多領(lǐng)
2、域都取得了顯著的成績。深度學(xué)習(xí)中的卷積神經(jīng)網(wǎng)絡(luò)(Convolutional Neural Networks,CNN)和循環(huán)神經(jīng)網(wǎng)絡(luò)(Recurrent Neural Networks,RNN)在建模能力上各有所長,CNN擅長圖像特征提取,RNN擅長時(shí)序建模。受此啟發(fā),本文利用CNN和RNN優(yōu)勢互補(bǔ)的能力,將它們結(jié)合成一個(gè)統(tǒng)一的架構(gòu)用于說話人辨認(rèn)任務(wù),本文稱之為 CDRNN模型。該模型首先將說話人的原始語音轉(zhuǎn)為語譜圖,再利用CNN的結(jié)構(gòu)優(yōu)
3、勢從語譜圖中自動(dòng)提取說話人的個(gè)性特征,最后將CNN提取出來的說話人特征輸入到Deep RNN中完成分類。
本文還基于CDRNN模型做了如下工作:
(1)為了驗(yàn)證CDRNN模型用于說話人識(shí)別的有效性,本文將CDRNN模型和經(jīng)典的說話人識(shí)別方法在同一個(gè)采集自真實(shí)環(huán)境中的說話人語音數(shù)據(jù)集上進(jìn)行了實(shí)驗(yàn)對(duì)比。實(shí)驗(yàn)結(jié)果表明,CDRNN模型在不同說話者人數(shù)下的識(shí)別率均高于經(jīng)典方法的識(shí)別率,因此CDRNN模型的有效性得以驗(yàn)證。
4、> (2)CDRNN中的網(wǎng)絡(luò)模型是由CNN和RNN組成的,為了研究CDRNN中的網(wǎng)絡(luò)模型在說話人辨認(rèn)中的性能,本文從說話人特征提取和說話人建模能力兩方面,將 CDRNN中的網(wǎng)絡(luò)模型和其它深度網(wǎng)絡(luò)模型之間進(jìn)行了實(shí)驗(yàn)對(duì)比。在自建數(shù)據(jù)集上的實(shí)驗(yàn)結(jié)果表明,CDRNN中的網(wǎng)絡(luò)模型要好于其它深度網(wǎng)絡(luò)模型。
?。?)本文基于深度學(xué)習(xí)框架TensorFlow實(shí)現(xiàn)了CDRNN中的網(wǎng)絡(luò)模型,并將訓(xùn)練好的網(wǎng)絡(luò)模型移植到移動(dòng)端安卓平臺(tái)上,最后實(shí)現(xiàn)了一
溫馨提示
- 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請下載最新的WinRAR軟件解壓。
- 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
- 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁內(nèi)容里面會(huì)有圖紙預(yù)覽,若沒有圖紙預(yù)覽就沒有圖紙。
- 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
- 5. 眾賞文庫僅提供信息存儲(chǔ)空間,僅對(duì)用戶上傳內(nèi)容的表現(xiàn)方式做保護(hù)處理,對(duì)用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對(duì)任何下載內(nèi)容負(fù)責(zé)。
- 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請與我們聯(lián)系,我們立即糾正。
- 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時(shí)也不承擔(dān)用戶因使用這些下載資源對(duì)自己和他人造成任何形式的傷害或損失。
最新文檔
- 基于深度置信網(wǎng)絡(luò)的說話人識(shí)別研究與實(shí)現(xiàn).pdf
- 說話人識(shí)別及其在網(wǎng)絡(luò)安全中的應(yīng)用.pdf
- 基于深度學(xué)習(xí)的說話人識(shí)別研究.pdf
- 移動(dòng)端環(huán)境感知系統(tǒng)中深度神經(jīng)網(wǎng)絡(luò)的應(yīng)用.pdf
- 基于深度學(xué)習(xí)的說話人識(shí)別建模研究.pdf
- 復(fù)數(shù)神經(jīng)網(wǎng)絡(luò)及其在說話人識(shí)別中的應(yīng)用.pdf
- HHT變換在說話人識(shí)別中的應(yīng)用.pdf
- LVQ神經(jīng)網(wǎng)絡(luò)的研究及其在說話人識(shí)別中的應(yīng)用.pdf
- 動(dòng)態(tài)貝葉斯網(wǎng)絡(luò)及其在說話人識(shí)別中的應(yīng)用.pdf
- 基于深度學(xué)習(xí)的短語音說話人識(shí)別研究.pdf
- 基于深度學(xué)習(xí)的說話人識(shí)別技術(shù)研究.pdf
- 脈沖耦合神經(jīng)網(wǎng)絡(luò)(PCNN)在基于語譜圖的說話人識(shí)別中的應(yīng)用.pdf
- 基于深度學(xué)習(xí)的說話人識(shí)別方法的研究.pdf
- 清輔音特征分析及其在耳語音說話人識(shí)別中的應(yīng)用.pdf
- 支持向量機(jī)在說話人識(shí)別中的應(yīng)用.pdf
- 分?jǐn)?shù)階傅里葉變換在耳語音說話人識(shí)別研究中的應(yīng)用.pdf
- 語音非線性特征在說話人識(shí)別中的應(yīng)用.pdf
- Hilbert-Huang變換在說話人識(shí)別中的應(yīng)用.pdf
- 說話人識(shí)別中的信道補(bǔ)償.pdf
- 改進(jìn)支持向量機(jī)在說話人識(shí)別中的應(yīng)用.pdf
評(píng)論
0/150
提交評(píng)論