删除或更新信息,请邮件至freekaoyan#163.com(#换成@)

基于k均值和基于归一化类内方差的语音识别自适应聚类特征提取算法

本站小编 Free考研考试/2020-04-15

<script type="text/x-mathjax-config">MathJax.Hub.Config({tex2jax: {inlineMath: [['$','$'], ['\\(','\\)']]}});</script> <script type="text/javascript" src="http://cdn.mathjax.org/mathjax/latest/MathJax.js?config=TeX-AMS-MML_HTMLorMML"></script>肖熙 , 周路
清华大学 电子工程系, 北京 100084

收稿日期:2017-02-13
基金项目:国家自然科学基金面上项目(61374120)
作者简介:肖熙(1967-), 男, 副研究员。E-mail:xiaoxi@tsinghua.edu.cn


摘要:语音识别模型中帧间独立假设在给模型计算带来简洁的同时,不可避免地降低了模型精度,增加了识别错误。该文旨在寻找一种既能满足帧间独立假设又能保持语音信息的特征。分别提出了基于k均值和基于归一化类内方差的语音识别自适应聚类特征提取算法,可以自适应地实现聚类特征流的提取。将该自适应特征分别应用在Gauss混合模型-隐Markov模型、基于段长分布的隐Markov模型和上下文相关的深度神经网络模型这3种语音识别模型中,与基线系统进行了实验对比。结果表明:采用基于归一化类内方差的自适应特征可以使得3种语言模型的识别错误率分别相对下降10.53%、5.17%和2.65%,展示了语音自适应聚类特征的良好性能。
关键词:特征提取自适应聚类特征帧间独立假设归一化类内方差
Speech recognition adaptive clustering feature extraction algorithms based on the k-means algorithm and the normalized intra-class variance
XIAO Xi, ZHOU Lu
Department of Electronic Engineering, Tsinghua University, Beijing 100084, China


Abstract: The inter-frame independence assumption for speech recognition simplifies the computations. However, it also reduces the model accuracy and can easily give rise to recognition errors. Therefore, the objective of this paper is to search for a feature which can weaken the inter-frame dependence of the speech features and keep as much information of the original speech as possible. Two speech recognition feature extraction algorithms are given based on the k-means algorithm and the normalized intra-class variance. These algorithms provide adaptive clustering feature extraction. Speech recognition tests with these algorithms on a Gaussian mixture model-hidden Markov model (GMM-HMM), a duration distribution based HMM (DDBHMM), and a context dependent deep neural network HMM (CD-DNN-HMM) show that the adaptive feature based on the normalized intra-class variance reduces the relative recognition error rates by 10.53%, 5.17%, and 2.65% relative to the original features. Thus, this adaptive clustering feature extraction algorithm provides improved speech recognition.
Key words: feature extractionadaptive clustering featureassumption of inter-frame independencenormalized intra-class variance
语音特征的概率表示模型一直是语音识别中的重点和难点问题。在经典的隐Markov模型[1](hidden Markov model,HMM)中,特征的概率模型经历了从单Gauss模型到复杂的Gauss混合模型[2](Gaussian mixture model,GMM)的发展过程。伴随着复杂模型的应用,语音识别的正确率也有了显著提高[3-5]。但是,这些经典的HMM模型大都假设语音特征序列是帧间独立的。
当前,针对语音信号的高冗余性和高度相关性,部分****从特征提取的角度入手,提取帧间相关性信息,例如通过传统的特征提取方式比如线性预测倒谱系数(linear prediction cepstrum coefficient,LPCC)的特征矢量预测Mel倒谱系数(Mel frequency cepstrum coefficient,MFCC)中的一、二阶差分;还有部分****通过神经网络[6]的非线性空间映射进行特征提取,如利用深度置信网络[7](deep belief network,DBN)提取的瓶颈特征[8]以及基于上下文相关的深度神经网络模型[9](context dependent deep neural network HMM,CD-DNN-HMM)前后多帧特征矢量输入的网络结构。以上这些研究表明,相邻近的语音帧应该相互高度依存,并非帧间独立,若要提升基于HMM框架的语音识别器性能,去除帧间相关性非常重要。
尽管许多****都意识到必须考虑特征序列的联合分布,但是为了模型的计算简洁,在实际应用中依旧采用了帧间独立的近似假设[10],这就不可避免地降低了模型精度,特别是在连续语音识别中会引发较多的插入错误。因此,寻找一种既能满足帧间独立假设又能保持语音信息的特征成为本文的研究目的。本文分别提出了基于k均值和基于归一化类内方差的两种语音自适应聚类特征提取算法。它们通过无监督聚类的方式,对特征流进行连续的自适应聚类,并使用连续输出的聚类中心作为新的语音特征,可以控制这些聚类特征的帧间距离,确保在尽可能多地保持原始语音信息的条件下削弱这些聚类特征之间的相关性,更好地满足模型计算的假设。将本文提出的语音自适应特征分别用于经典GMM-HMM以及标准DDBHMM模型[11]和现在被广泛应用的CD-DNN-HMM模型,其结果证明了本文提出的语音自适应特征的有效性。
1 汉语语音三音子模型本文实验中的连续语音识别模型采用三音子音节[12]建模。该模型较好地描述了语音声学模型中的上下文关系,能准确地表现连续语音信号的物理特性。每个汉字音节由持续2个状态长度的声母状态和持续4个状态长度的韵母状态组成。每个音素状态分为协同发音和非协同发音状态。协同发音表示该状态和前后音节有关,由前后音节与当前音节确定;而非协同发音只由当前音节确定。
三音子模型整体结构如图 1所示,I0、I1、F0、F1、F2、F3表示非协同发音,只由当前音节确定;I0C、F1C和F2C表示协同发音状态,需由前后音节的声韵母确定。模型结尾还有一个可被跨越的尾部噪声状态,用N表示。模型中使用汉语有调音节共计1 254个,由100个声母和164个韵母有选择地组成,有856个非协同发音状态。为控制状态模型规模,对声韵母分别聚类成声母27类、韵母29类,共有2 349个协同发音状态。加上尾部噪声,状态模型共计3206个。
图 1 三音子模型识别示意图[12]
图选项





2 语音识别自适应聚类特征的提取方式经典HMM假设帧间独立,即认为
$p\left( {\mathit{\boldsymbol{O}}|\lambda } \right) = p\left( {{\mathit{\boldsymbol{o}}_1},{\mathit{\boldsymbol{o}}_2},{\mathit{\boldsymbol{o}}_3} \cdots ,{\mathit{\boldsymbol{o}}_T}|\lambda } \right) = \prod\limits_{i = 1}^T {p\left( {{\mathit{\boldsymbol{o}}_i}|\lambda } \right)} .$ (1)
其中:O为原始观测序列,T为观测序列的长度,λ为模型参数,p表示观测概率,oi表示第i个原始语言帧矢量。语音信号的相邻帧是强相关的,式(1) 中的这种近似的表示方法降低了模型精度,例如在连续语音识别中会产生较明显的插入错误。在实际应用中常采用各种方法来降低这种近似表示方法所带来的影响。例如,对于MFCC特征,常通过一、二阶的差分特征提取前后两帧的相关性信息;瓶颈特征和CD-DNN-HMM模型通过前后多帧输入,经过神经网络的非线性映射提取相关性。但是,这些固定帧处理长度的方法应用于强随机性的语音信号中,例如语速快速变化的场合,仍然有局限性。
由于语音相邻帧是强相关的,因此可以压缩帧率,通过自适应聚类的方法获得逼近帧间独立的代表帧序列,用更加具有统计独立性的代表帧来取代原始强相关的语音特征序列,即
$p\left( {\mathit{\boldsymbol{O}}|\lambda } \right) = p\left( {\mathit{\boldsymbol{M}}|\lambda } \right) = \prod\limits_{j = 1}^N {p\left( {{\mathit{\boldsymbol{\mu }}_j}|\lambda } \right)} .$ (2)
式(2) 中μj为第j个自适应特征矢量。OM分别表示原始特征矢量序列和自适应特征矢量序列,其长度分别为TN
$\left\{ {\begin{array}{*{20}{c}} {\mathit{\boldsymbol{O}} = \left[ {{\mathit{\boldsymbol{o}}_1},{\mathit{\boldsymbol{o}}_2} \cdots ,{\mathit{\boldsymbol{o}}_T}} \right]} \\ {\mathit{\boldsymbol{M}} = \left[ {{\mathit{\boldsymbol{\mu }}_1},{\mathit{\boldsymbol{\mu }}_2} \cdots ,{\mathit{\boldsymbol{\mu }}_N}} \right]} \end{array}} \right..$ (3)
为了保持原有语音特征的信息,需要使得聚类特征序列M与原始序列O的距离度量尽量小。这需要一种分段映射算法,例如Vitebi算法,将两个序列对齐,从而计算聚类中心。
设经过对齐OM的映射关系为映射路径PμP(i)表示第i个原始特征帧所对齐的聚类特征帧。式(4) 是在给定路径P的情况下,序列OM之间的总距离度量。其中,d(oi, μj)表示oiμj之间的距离。
${D_P}\left( {\mathit{\boldsymbol{O}},\mathit{\boldsymbol{M}}} \right) = \sum\limits_{i = 1}^T {{d_i}\left( {{\mathit{\boldsymbol{o}}_i},{\mathit{\boldsymbol{\mu }}_{\mathit{\boldsymbol{p}}\left( i \right)}}} \right)} .$ (4)
式(5) 通过寻找最佳映射路径${\mathit{\boldsymbol{\hat P}}}$使得序列OM之间的度量最小,实际应用中可以采用k均值(k-means)聚类算法来实现。
$\mathit{\boldsymbol{\hat P = }}{\rm{arg}}\;\mathop {{\rm{min}}}\limits_P {D_P}\left( {\mathit{\boldsymbol{O}},\mathit{\boldsymbol{M}}} \right).$ (5)
通过最佳匹配映射路径${\mathit{\boldsymbol{\hat P}}}$中对齐的位置信息得到分割点,设聚类分割点序列Seg=[s1, s2…, sN+1],则分割点sksk+1分别表示第k个聚类的起点和终点,即P(j)=k, skjsk+1。利用分割点信息得到被聚类区间,进而得到聚类中心作为代表帧。假设有未标注的原始语音特征序列O,设聚类函数CM=C(O, Seg)。为了方便算法表示,令d(i, j)代表d(oi, μj),函数f(j)表示终点为j的最短代价。算法具体流程如图 2所示。
图 2 基于K-均值的特征提取算法
图选项





本文中聚类函数C取均值函数,
$C\left( {\mathit{\boldsymbol{O}},{\bf{Seg}}} \right) = \left\{ {\frac{{\sum\limits_{i = {s_k}}^{{s_{k + 1}} - 1} {{\mathit{\boldsymbol{o}}_i}} }}{{{\rm{nu}}{{\rm{m}}_k}}}} \right\},\quad k = 1,2, \cdots ,N.$ (6)
其中numk=sk+1sk表示属于第k个聚类中心的帧数。
3 实时化自适应聚类特征提取算法基于k均值分割的自适应语音特征提取算法仍然存在几个问题:1) 该算法受初始点影响大,因此需要多次随机初始化,最终选择序列距离最短的代表帧序列,无形中增加了大量的额外计算量;2) 代表帧的数量需要提前确定,若考虑到语音信号的多样性与随机性、不同说话人的语速变化,针对所有语音信号使用同一压缩率的做法显然不合理;3) 该算法不能满足动态实时聚类的需求。
因此,需要一种不仅能够实时聚类语音特征流,而且还能自动确定聚类数的自适应聚类方法。为此,本文引入了归一化类内方差(normalized intra-cluster variance,NICV)参数,第k个类的NICV定义为
${\rm{NIC}}{{\rm{V}}_k} = \frac{{\frac{{\sum\limits_{i = {s_k}}^{{s_{k + 1}} - 1} {d\left( {{\mathit{\boldsymbol{o}}_i},{\mathit{\boldsymbol{\mu }}_k}} \right)} }}{{{\rm{nu}}{{\rm{m}}_k}}}}}{{\frac{{\sum\limits_{i = {s_k}}^{{s_{k + 1}} - 1} {\mathit{\boldsymbol{o}}_i^2} }}{{{\rm{nu}}{{\rm{m}}_k}}}}} = \frac{{\sum\limits_{i = {s_k}}^{{s_{k + 1}} - 1} {d\left( {{\mathit{\boldsymbol{o}}_i},{\mathit{\boldsymbol{\mu }}_k}} \right)} }}{{\sum\limits_{i = {s_k}}^{{s_{k + 1}} - 1} {\mathit{\boldsymbol{o}}_i^2} }}.$ (7)
式(7) 分母表示聚类簇帧的总能量,分子表示类内方差,NICV越小则类内帧差别越小。
根据统计,对于第2节算法所提取的帧间特征,NICV分布如图 3所示。可以看出,绝大多数聚类簇的NICV都在0.1以内,可以以此参数为依据构造一种连续特征流自适应聚类方法。
图 3 归一化类内方差的分布
图选项





设NICV的门限为θ,最大类内总帧数为L,算法步骤如下:
步骤1?初始化首个聚类中心为语音流首帧;
步骤2?若新语音数据与聚类中心归一化类内方差小于门限θ,且被聚类帧数小于L,则更新聚类中心,进入下一帧并重复步骤2,否则转步骤3;
步骤3?保留当前聚类中心,若没有新语音帧特征,则转步骤4,否则创建新聚类中心矢量,中心矢量等于当前语音帧特征,转步骤2;
步骤4?将保留的聚类中心序列作为代表帧序列输出。
改进算法不仅可以流化处理语音流,而且比固定聚类数的方法更加灵活合理。由于压缩了输出的帧数,算法在实时识别解码的效率上也有很大提升。下面引入相对压缩率η
$\eta = \frac{N}{T},$ (8)
表示相对聚类输出帧数的压缩比例。其中:T为原始帧数,N为聚类输出代表帧的帧数。NICV与相对压缩率关系如图 4所示,随着NICV门限的提高,有更多的语音帧被压缩。
图 4 改进算法的归一化类内方差与平均相对压缩率的关系
图选项





D为原始的特征维度,βγ为观测模型对单帧计算似然的加法次数和乘法次数。3种特征计算似然的运算量如表 1所示。通常βγ远大于N·T·D,因此运算量被近似压缩了η倍。
表 1 3种特征计算似然加法和乘法运算量
特征加法次数乘法次数
原始特征T·βT·γ
基于k均值的聚类特征N·β + N·T·DN·γ + 2N·T·D
基于NICV的聚类特征N·β +2·T·DN·γ + 3T·D


表选项






4 自适应特征语音识别实验实验采用的语音数据来源于“863”连续语音录音数据,使用其中83人的连续语音数据库,共有48 373个句子,包含588 049个汉字音节,每人的采样时长约为50 min。选取70人语料作为训练数据集,其余13人语料作为测试数据集。数据采样率为16 kHz,帧长20 ms,帧移10 ms,每帧语音特征矢量由每帧语音的14维MFCC系数和1维归一化能量,以及它们的一阶差分、二阶差分系数,共45维的特征矢量组成。实验中声学模型采用汉语音节的三音子建模,模型中使用的有调音节共计1 254个,全部独立的HMM状态模型共有3 206个。
实验在GMM-HMM、DDBHMM和CD-DNN-HMM模型下分别对比基于k均值聚类和基于NICV门限聚类的自适应语音特征和原始MFCC特征的识别效果。
1) GMM-HMM框架下,特征的观测概率采用45维4个mixture的全协方差GMM,分别使用经典齐次HMM和DDBHMM。DDBHMM的段长分布用1维的Gauss分布表示。
2) CD-DNN-HMM模型下,输入为前后5帧加当前帧共11帧的多帧特征矢量串联,输出为3 206个HMM状态的后验概率。采用的DNN模型有1个输入层、4个隐层和1个输出层,共6层DNN结构,每层参数分别为495、1 024、2 048、2 048、4 096和3 206。网络输入层和隐层的激活函数采用relu函数,输出层采用softmax函数。
实验结果如表 2所示,特征1和特征2分别表示基于k均值和基于NICV门限的自适应语音特征。可见,应用基于k均值的自适应特征比基线MFCC特征系统效果好,齐次HMM、DDBHMM和CD-DNN-HMM总错误率分别绝对下降1.91%、0.82%和0.15%,相对下降9.31%、4.37%和1.28%。改进的基于NICV门限的自适应特征效果更好,对比基线系统总错误率绝对下降2.16%、0.97%和0.31%,相对下降10.53%、5.17%和2.65%。可见, 加入自适应特征,错误率有很明显的下降,而且改进的自适应聚类特征提取方法更加有效。
表 2 3种模型采用不同特征的连续语音识别总错误率
%
齐次HMMDDBHMMCD-DNN-HMM
MFCC特征20.5118.7511.69
特征118.6017.9311.55
特征218.3517.7711.38
特征1改善1.910.820.15
特征2改善2.160.970.31


表选项






5 结论本文首先提出了基于k均值的语音识别自适应聚类特征提取算法,并应用于连续语音识别任务。该算法用聚类中心作为输入特征的代表帧,能更好地满足语音识别模型中对语音信号帧间独立假设的描述。然后, 提出了一种基于NICV的改进算法,能够实时化地自适应聚类语音特征,大幅度减少运算代价。非特定人连续语音实验证明,使用该自适应语音聚类特征比使用原始的MFCC特征可以使识别错误率显著下降。
所提聚类特征有如下4个优点:1) 它们在聚类时无需先验训练的码本支持,可自适应实现,不会因为训练集数据不足出现失配现象;2) 每个聚类的语音帧数量并不固定,不仅可更好地描述语音的随机性,适应语速的变化,而且可对语音流实时处理;3) 本文方法有效地压缩了语音信号,提升了模型的训练和识别速度,工程应用价值明显;4) 本文方法较好地解决了HMM模型中帧间独立假设问题带来的影响,对GMM、DDBHMM和CD-DNN-HMM描述语音声学特征,都有较好的提升和补全作用。

参考文献
[1] Rabiner L R. A tutorial on hidden Markov models and selected applications in speech recognition[J]. Readings in Speech Recognition, 1990, 77(2): 267–296.
[2] Reynolds D A, Rose R C. Robust text-independent speaker identification using Gaussian mixture speaker models[J]. IEEE Transactions on Speech & Audio Processing, 1995, 3(1): 72–83.
[3] Sainath T N, Kingsbury B, Saon G, et al. Deep convolutional neural networks for large-scale speech tasks[J]. Neural Networks the Official Journal of the International Neural Network Society, 2015, 64: 39–48. DOI:10.1016/j.neunet.2014.08.005
[4] Ansari Z, Seyyedsalehi S A. Toward growing modular deep neural networks for continuous speech recognition[J/OL]. Neural Computing & Applications, 2016:1-20. DOI:10.1007/s00521-016-2438-x.
[5] Hinton G, Deng L, Yu D, et al. Deep neural networks for acoustic modeling in speech recognition:The shared views of four research groups[J]. IEEE Signal Processing Magazine, 2012, 29(6): 82–97. DOI:10.1109/MSP.2012.2205597
[6] Yu D, Deng L, Seide F. The deep tensor neural network with applications to large vocabulary speech recognition[J]. IEEE Transactions on Audio Speech & Language Processing, 2013, 21(2): 388–396.
[7] Hinton G, Osindero S, Teh Y. A fast learning algorithm for deep belief nets[J]. Neural Computation, 1989, 18(7): 1527–1554.
[8] Yu D, Seltzer M L. Improved bottleneck features using pretrained deep neural networks[C]//INTERSPEECH 2011, Conference of the International Speech Communication Association. Florence, Italy, 2011:237-240.
[9] Dahl G E, Yu D, Deng L, et al. Context-dependent pre-trained deep neural networks for large-vocabulary speech recognition[J]. IEEE Transactions on Audio Speech & Language Processing, 2012, 20(1): 30–42.
[10] Rabiner L R. A tutorial on hidden Markov models and selected applications in speech recognition[J]. Readings in Speech Recognition, 1990, 77(2): 267–296.
[11] 肖熙. DDBHMM语音识别模型的训练和识别算法[D]. 北京: 清华大学, 2003. XIAO Xi. The Training and Recognition Algorithm for DDBHMM Speech Recognition Model[D]. Beijing:Tsinghua University, 2003. (in Chinese)
[12] 李春, 王作英. 基于语音学分类的三音子识别单元的研究[C]//全国人机语音通讯学术会议. 深圳, 2001: 257-262. LI Chun, WANG Zuoying. Triphone recognition unit based on phonetics category[C]//The 6th National Coference of Human-Computer Speech Communication. Shenzhen, 2001:257-262. (in Chinese)

相关话题/序列 信号

  • 领限时大额优惠券,享本站正版考研考试资料!
    大额优惠券
    优惠券领取后72小时内有效,10万种最新考研考试考证类电子打印资料任你选。涵盖全国500余所院校考研专业课、200多种职业资格考试、1100多种经典教材,产品类型包含电子书、题库、全套资料以及视频,无论您是考研复习、考证刷题,还是考前冲刺等,不同类型的产品可满足您学习上的不同需求。 ...
    本站小编 Free壹佰分学习网 2022-09-19
  • 基于心冲击信号的心率检测
    张先文1,张丽岩1,丁力超2,魏荣荣2,王婕1,唐劲天11.清华大学工程物理系,粒子技术与辐射成像教育部重点实验室,北京100084;2.东北电力大学自动化工程学院,吉林132012收稿日期:2016-03-07基金项目:粒子技术与辐射成像教育部重点实验室开放课题(20151204);航天科工支撑基 ...
    本站小编 Free考研考试 2020-04-15
  • 请问信号与系统这项专业课的参考书目是哪一本?
    提问问题:请问信号与系统这项专业课的参考书目是哪一本?学院:电子与通信工程学院、人工智能学院提问人:13***09时间:2019-09-1910:37提问内容:请问信号与系统这项专业课的参考书目是哪一本?如何得到历年真题?谢谢回复内容:推荐书目请查看相关学院网站今年我校不再提供历年真题 ...
    本站小编 天津师范大学 2019-11-27
  • 946信号真题,什么时候公布
    提问问题:真题学院:信息科学与工程学院提问人:17***79时间:2019-09-2011:55提问内容:请问2019年946信号真题,什么时候公布,谢谢回复内容:近期公布 ...
    本站小编 中国海洋大学 2019-11-26
  • 信号与系统
    提问问题:信号与系统学院:信息科学与工程学院提问人:17***75时间:2018-09-2112:34提问内容:老师你好,请问一下咱们学校信号与系统专业今年大约收多少人,推免多少人,录取比例怎么样,大约多少分可以录取,谢谢老师回复内容:http://yz.ouc.edu.cn/ ...
    本站小编 中国海洋大学 2019-11-26
  • 信号与信息处理
    提问问题:信号与信息处理学院:电子信息工程学院提问人:15***57时间:2018-09-1909:14提问内容:贵校今年信号与信息处理专业学硕招收多少人呢?今年的招生简章什么时候出来?官网上没有找到相关通知,谢谢老师解答回复内容:已公布 ...
    本站小编 山东科技大学 2019-11-26
  • 你好,专业课显示考电子技术或信号与系统是什么意思呢?
    提问问题:你好,专业课显示考电子技术或信号与系统是什么意思呢?学院:信息与通信工程学院提问人:18***02时间:2017-09-2016:33提问内容:你好,我查阅了贵校的专业课目录,专业课一栏写的是考电子技术或信号与系统,意思是考试时自主选择,还是怎么出呢?还有一个问题是说复试时考初始未考的一门 ...
    本站小编 中北大学 2019-11-26
  • 信号与信息处理
    提问问题:信号与信息处理学院:信息科学与技术学院提问人:18***80时间:2014-09-2316:00提问内容:您好老师请问咱们专业(信号与信息处理)初试时信号与系统的推荐用书是什么回复内容:你好,参考书目将于近日发布,请留意。+新浪微博@中山大学研究生院:http://e.weibo.com/ ...
    本站小编 中山大学 2019-11-23
  • 信号与信息处理
    提问问题:信号与信息处理学院:电子与信息学院提问人:18***80时间:2014-09-2316:15提问内容:报录比回复内容:参考学校招生信息网主页的下载中心的历年报考录取统计表,很详细的信息,请留意查看 ...
    本站小编 华南理工大学 2019-11-23
  • 信号与信息处理
    提问问题:信号与信息处理学院:电子与信息学院提问人:18***80时间:2014-09-2316:15提问内容:信号与系统推荐用书回复内容:参考本周稍晚些时候公布的招生专业目录及参考书目或考试大纲 ...
    本站小编 华南理工大学 2019-11-23
  • 信号与系统
    提问问题:信号与系统学院:信息学院提问人:15***04时间:2018-09-1912:48提问内容:报考电子与通信工程一般多少分可以进复试?回复内容:具体专业情况请联系学院咨询 ...
    本站小编 云南大学 2019-11-14