版權(quán)說(shuō)明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請(qǐng)進(jìn)行舉報(bào)或認(rèn)領(lǐng)
文檔簡(jiǎn)介
1、說(shuō)話人識(shí)別就是利用人的語(yǔ)音自動(dòng)對(duì)其身份進(jìn)行鑒別與認(rèn)證的技術(shù)。說(shuō)話人識(shí)別具有廣闊的應(yīng)用前景,已經(jīng)成為身份認(rèn)證及人工智能領(lǐng)域研究的一個(gè)熱點(diǎn)。從20世紀(jì)30年代發(fā)展至今已經(jīng)有許多比較成熟的說(shuō)話人識(shí)別理論模型。 為了提高說(shuō)話人識(shí)別系統(tǒng)的性能,主要是識(shí)別率和穩(wěn)定性,本課題針對(duì)說(shuō)話人識(shí)別的兩個(gè)關(guān)鍵環(huán)節(jié),特征提取和模式匹配展開研究,對(duì)原有的一些特征和匹配方法進(jìn)行了改進(jìn),尋找出了更加簡(jiǎn)單有效的算法。主要內(nèi)容如下: 特征提?。貉芯苛四壳艾F(xiàn)
2、有的幾種用于說(shuō)話人識(shí)別的主要特征參數(shù),其中包括線性預(yù)測(cè)倒譜系數(shù)(LPCC)、美爾倒譜系數(shù)(MFCC)以及動(dòng)態(tài)特征參數(shù)。 模式匹配方法:對(duì)當(dāng)今應(yīng)用在與無(wú)本無(wú)關(guān)的說(shuō)話人識(shí)別中效果較好的基于矢量量化(VQ)和高斯混合模型(GMM)的模式匹配方法做了深入的研究和改進(jìn)。 經(jīng)過(guò)對(duì)上述兩個(gè)問(wèn)題的重點(diǎn)研究,本文提出了三種不同的說(shuō)話人識(shí)別算法: (1)基于MFCC+質(zhì)心和VQ的說(shuō)話人識(shí)別算法經(jīng)過(guò)對(duì)矢量量化方法的研究,通過(guò)對(duì)特征參數(shù)
3、、碼本大小和失真測(cè)度等的選取做的比較實(shí)驗(yàn),提出了基于MFCC+質(zhì)心和VQ的說(shuō)話人識(shí)別算法。該算法提取不包括Co在內(nèi)的前12個(gè)MFCC分量和質(zhì)心構(gòu)成的13維的組合參數(shù)來(lái)表征語(yǔ)音的個(gè)性特征。此算法的優(yōu)點(diǎn)是計(jì)算簡(jiǎn)單,識(shí)別速度快。但也存在著在語(yǔ)音較短條件下識(shí)別率較低的缺點(diǎn)。 (2)基于MFCC+△MFCC和GMM的說(shuō)話人識(shí)別算法考慮到(1)中所述的基于MFCC+質(zhì)心和VQ的說(shuō)話人識(shí)別算法用在語(yǔ)音較短條件下識(shí)別率較低的缺點(diǎn),又對(duì)高斯混合模
4、型進(jìn)行了研究,提出了基于MFCC+△MFCC和GMM的說(shuō)話人識(shí)別算法。該算法提取MFCC分量的C2-C13以及它們的一階差分系數(shù)△MFCC組成的24維的特征向量來(lái)表征語(yǔ)音。經(jīng)實(shí)驗(yàn)表明,即使在語(yǔ)音較短的條件下,此方法也能得到比較高的識(shí)別率,但存在著識(shí)別速度較慢和識(shí)別結(jié)果不穩(wěn)定的問(wèn)題。 (3)基于VQ-GMM的穩(wěn)定高效的說(shuō)話人識(shí)別算法為解決(2)中基于MFCC+△MFCC和GMM的說(shuō)話人識(shí)別算法用于說(shuō)話人辨認(rèn)實(shí)驗(yàn)出現(xiàn)的識(shí)別結(jié)果不穩(wěn)定
5、的問(wèn)題,將矢量量化和高斯混合模型成功進(jìn)行了結(jié)合,提出了基于VQ-GMM的說(shuō)話人識(shí)別算法。在這一算法中高斯混合模型的初始化參數(shù)來(lái)自于矢量量化的結(jié)果。提取的語(yǔ)音特征參數(shù)仍然是MFCC+△MFCC組成的24維的向量。與傳統(tǒng)的初始化方法相比,將此算法用于語(yǔ)音較短的說(shuō)話人辨認(rèn)實(shí)驗(yàn),識(shí)別率更高,更穩(wěn)定。 以上三種算法用于我們自己錄制的50人的語(yǔ)音庫(kù)進(jìn)行說(shuō)話人辨認(rèn)實(shí)驗(yàn)中都取得了比較好的結(jié)果,可以根據(jù)需要應(yīng)用在不同的場(chǎng)合。 目前針對(duì)說(shuō)話
溫馨提示
- 1. 本站所有資源如無(wú)特殊說(shuō)明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請(qǐng)下載最新的WinRAR軟件解壓。
- 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請(qǐng)聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
- 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁(yè)內(nèi)容里面會(huì)有圖紙預(yù)覽,若沒有圖紙預(yù)覽就沒有圖紙。
- 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
- 5. 眾賞文庫(kù)僅提供信息存儲(chǔ)空間,僅對(duì)用戶上傳內(nèi)容的表現(xiàn)方式做保護(hù)處理,對(duì)用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對(duì)任何下載內(nèi)容負(fù)責(zé)。
- 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請(qǐng)與我們聯(lián)系,我們立即糾正。
- 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時(shí)也不承擔(dān)用戶因使用這些下載資源對(duì)自己和他人造成任何形式的傷害或損失。
最新文檔
- 文本無(wú)關(guān)說(shuō)話人識(shí)別系統(tǒng)研究.pdf
- 基于SVM的與文本無(wú)關(guān)的說(shuō)話人識(shí)別系統(tǒng)研究.pdf
- 定點(diǎn)化與文本無(wú)關(guān)的說(shuō)話人識(shí)別系統(tǒng).pdf
- 文本無(wú)關(guān)的說(shuō)話人識(shí)別系統(tǒng)的研究與實(shí)現(xiàn).pdf
- 與文本無(wú)關(guān)的說(shuō)話人識(shí)別系統(tǒng)的研究及DSP實(shí)現(xiàn).pdf
- 文本無(wú)關(guān)的說(shuō)話人識(shí)別研究.pdf
- 基于文本無(wú)關(guān)的說(shuō)話人識(shí)別.pdf
- 基于LabVIEW的文本無(wú)關(guān)說(shuō)話人識(shí)別系統(tǒng)的設(shè)計(jì)與實(shí)現(xiàn).pdf
- 與文本無(wú)關(guān)說(shuō)話人識(shí)別技術(shù)的研究.pdf
- 與文本無(wú)關(guān)的說(shuō)話人識(shí)別技術(shù)研究.pdf
- 與文本無(wú)關(guān)的說(shuō)話人識(shí)別算法的研究.pdf
- 基于文本無(wú)關(guān)的說(shuō)話人識(shí)別技術(shù)研究.pdf
- 基于文本無(wú)關(guān)的說(shuō)話人識(shí)別技術(shù)的研究.pdf
- 與文本無(wú)關(guān)的閉集聲紋識(shí)別系統(tǒng)研究.pdf
- 基于SVM的與文本無(wú)關(guān)的說(shuō)話人識(shí)別算法研究.pdf
- 與文本無(wú)關(guān)的說(shuō)話人識(shí)別研究及實(shí)現(xiàn)的設(shè)計(jì).pdf
- 基于VQ的文本無(wú)關(guān)說(shuō)話人識(shí)別研究.pdf
- 基于矢量量化文本無(wú)關(guān)說(shuō)話人識(shí)別系統(tǒng)的設(shè)計(jì)和實(shí)現(xiàn).pdf
- 文本無(wú)關(guān)說(shuō)話人識(shí)別及其應(yīng)用研究.pdf
- 與文本無(wú)關(guān)的開集說(shuō)話人識(shí)別技術(shù)研究.pdf
評(píng)論
0/150
提交評(píng)論