
1. 清华大学 生物医学工程系, 北京 100084;
2. 清华大学无锡应用技术研究院 生物医学工程研究中心, 无锡 214000
收稿日期:2019-03-10
基金项目:国家自然科学基金面上项目(61871252)
作者简介:宫琴(1968—), 女, 副教授。E-mail:gongqin@mail.tsinghua.edu.cn
摘要:在复杂声音场景,尤其是多人对话交谈的情况中,人工耳蜗佩戴者的言语可懂度会显著下降。该文提出了一种基于近距离双麦克风的语音增强算法,通过提取采集信号的延迟参数,并根据该参数设置掩蔽矩阵,进而区分不同方位的声源,抑制竞争性语音噪声。同时还以数字信号处理器(digital signal processor,DSP)为核心,搭建调试平台,对算法进行了工程实现。实际测试表明,算法提升了前端信号的信噪比,鲁棒性强,并且算法单帧运行时间短,可以和常用的人工耳蜗言语编码策略相融合,满足人工耳蜗的实时计算需求。
关键词:人工耳蜗竞争性语音噪声数字信号处理
Speech enhancement algorithm for cochlear implants to suppress multi-directional speech noise
GONG Qin1,2

1. Department of Biomedical Engineering, Tsinghua University, Beijing 100084, China;
2. Research Center of Biomedical Engineering, Wuxi Research Institute of Applied Technologies, Tsinghua University, Wuxi 214000, China
Abstract: Cochlear implant users often cannot clearly hear sounds in complex sound environments, especially with competing talkers. This paper describes a speech enhancement algorithm based on closely-spaced microphones. The algorithm extracts a delay parameter and defines a mask matrix based on this parameter to distinguish sound sources having different orientations. The model uses a digital signal processor (DSP) to implement the algorithm. Tests indicate that the robust algorithm improves the signal-to-noise ratio. The algorithm has short single-frame run times and can be integrated with commonly used speech coding strategies, which are needed for real-time computing in cochlear implants.
Key words: cochlear implantcompetitive speech noisedigital signal processing
人工耳蜗(cochlear implant, CI)是一种重要的电子听力辅助设备,可以帮助重度聋和全聋患者恢复听力。在安静条件下,CI佩戴者的句子识别率超过70%,可以进行较为流畅的面对面交流或者电话沟通,但是在噪声环境下,CI佩戴者的言语识别率会显著下降[1]。为此,研究者从系统硬件、信号处理算法等多个方面做了大量的改进措施,主要包括联合使用助听器[2]、改进言语编码策略[3-5]和对CI前端进行信号预处理[6-8]等方法。目前,CI产品已经集成了降噪模块,能够提升CI佩戴者在稳态噪声中的言语可懂度[9]。
但是,当CI佩戴者在室内参加会议或者课程,并进入讨论时,现场其他参与者的自由发言会影响CI佩戴者对来自其正方向的目标说话人语音的正常接收,人们将其称为竞争性语音噪声(非目标源的语音信号能量近似等于目标源语音信号的能量)。对于此类噪声,业界还没有很好的解决方案。传统的波束形成的方法幅频响应只有单一零点,无法有效抑制位于零点以外方位的多方向性噪声[10];基于双麦克风系统的相干性的方法通过计算采集信号的相干值来设置滤波器的系数,可以抑制方向性的噪声源,但是此方法会造成目标信号的能量损失[11];以盲源分离为基础的方法对声源的特点有特定要求,且流程复杂计算量大,难以应用于实际的CI产品[12]。
基于上述情况,本文针对目标源静止于CI佩戴者的正方向,且在其他方位存在2个竞争性语音噪声源的声学场景,提出了一种基于延迟参数的CI语音增强算法,来抑制与目标源处于不同方位的竞争性语音噪声,并且以TI公司的TMS320C6748(以下简称C6748)芯片为核心,搭建了基于双麦克风阵列的算法调试平台,对算法进行了工程实现。实验结果表明:算法可以有效地抑制竞争性语音噪声,提高了前端信号的信噪比,并且算法鲁棒性好,单帧运行时间短,可以满足CI的实时计算需求。
1 算法理论推导具体的声学场景如图 1所示。假设目标声源静止,且偏离CI双麦克风阵列正方向的角度为θ1,θ1为0°或者非常接近0°,此时在目标源的附近存在着2个竞争性语音,偏离角度分别为θ2和θ3,目标声源、干扰噪声源1和干扰噪声源2各自发出的信号分别为s(n)、n1(n)和n2(n)。由于各声源与2个麦克风的距离较远(在1.5 m左右),每个声信号到麦克风的传播路径是近似平行的。麦克风的间距为d。前后向麦克风分别记为mic1和mic2,它们采集到的信号分别记为m1(n)和m2(n),同时包含了目标声源信号和干扰噪声信号。
![]() |
图 1 双麦克风与声源位置示意图 |
图选项 |
因此,将混合信号m1(n)分帧、加窗后再时频变换可得
$ M_{1}(k, l)=S(k, l)+N_{1}(k, l)+N_{2}(k, l). $ | (1) |
$ \begin{aligned}M_{2}(k, l) &=\mathrm{e}^{-{\rm i} δ_{1} l \frac{2 {\rm{ \mathsf{ π} }}}{N}} S(k, l)+\\\mathrm{e}^{-\mathrm{i} δ_{2} l \frac{2 {\rm{ \mathsf{ π} }}}{N}} N_{1}(k, l) &+\mathrm{e}^{-{\rm i} \delta_{3} l \frac{2 {\rm{ \mathsf{ π} }}}{N}} N_{2}(k, l).\end{aligned} $ | (2) |
$ \left\{\begin{array}{l}{M_{1}(k, l) \approx S(k, l)}, \\{M_{2}(k, l) \approx \mathrm{e}^{-{\rm i} \delta_{1} l \frac{2 \pi}{N}} S(k, l)}.\end{array}\right. $ | (3) |
$ \delta_{1} \approx\left(-\frac{N}{2 {\rm{ \mathsf{ π} }} l}\right) \times \arctan \left(\frac{\operatorname{Im}\left(M_{2}(k, l) / M_{1}(k, l)\right)}{\operatorname{Re}\left(M_{2}(k, l) / M_{1}(k, l)\right)}\right). $ | (4) |
表 1 b/a随τ(k, l)变化的情况
τ(k, l)/δ1 | (0.9, 1.0) | (0.7, 0.9) | (0.5, 0.7) | (0.3, 0.5) | (0.1, 0.3) | (0, 0.1) |
b/a | 0.84 | 0.73 | 0.61 | 0.51 | 0.36 | 0.11 |
表选项
根据表 1,当τ(k, l)在0.9δ1~1.0δ1的范围内时,目标信号占主导的可能性超过80%,对这一部分的时频单元能量予以全部保留;当τ(k, l)在0.5δ1~0.9δ1的范围内时,目标信号占主导作用的可能性略有减小,对于这一部分的时频单元的能量进行部分保留;当τ(k, l)在0.5δ1以下时,目标信号占主导的可能性不足一半,如果对其中的能量进行保留,反而会使引入更多的干扰噪声能量造成语音失真,因此对于这部分能量予以舍弃。最终设计了一个掩蔽矩阵B,矩阵元素B(k, l)的确定准则为
$ B(k, l)=\left\{\begin{array}{l}{1}, &\tau(k, l) / \delta_{1} \in(0.9, 1.0) ;\\{\lg \left(\max \left(\frac{10\left(\tau(k, l)-0.5(d / c) \times f_{\rm s}\right)}{0.4(d / c) \times f_{\rm s}}, 1\right)\right)}, &\tau(k, l) / \delta_{1} \in(0.5, 0.9); \\{0}, & 其他.\end{array}\right. $ | (5) |
$\hat{S}(k, l)=M_{1}(k, l) B(k, l).$ | (6) |
![]() |
图 2 算法流程图 |
图选项 |
2 算法工程实现2.1 硬件结构与设计参考CI产品的大小与尺寸,本文设计了一套算法调试平台。硬件平台包括采集系统和信号处理系统两大部分,其中采集系统使用2个全向型的微型麦克风,型号为SPU0410HR5H,采集声音并转换为模拟电信号,双麦克风的距离设置为17 mm。采集系统参考文[14]中的前置调理电路,将模拟信号进行工频滤波和多级放大,使得采集系统的性能指标与目前CI的近距离双麦克风等效。信号处理系统的核心处理器是型号为C6748的数字信号处理器(digital signal processor, DSP),音频编解码器采用的是TLV320AIC3106(以下简称AIC3106)芯片。C6748是TI公司生产的一款32位的浮点DSP,共有144个功能复用的输入输出引脚,可以同时配置多声道音频串口(multichannel audio serial port,McASP)、串行外设接口(serial peripheral interface,SPI)等众多外设模块,方便调试平台后续的功能扩展和算法的整合。AIC3106芯片的采样率范围为8~96 kHz,支持LINE-IN和MIC-IN两种输入方式。整体的硬件结构图如图 3所示。
![]() |
图 3 系统的硬件结构图 |
图选项 |
双麦克风采集到的信号通过音频线以左右声道的形式传输到AIC3106的模数转换器(analog-to-digital converter, ADC),C6748通过集成电路总线(inter-integrated circuit, IIC)控制与AIC3106的数据交换,C6748处理后的结果传输到AIC3106内部的数模转换器(digital-to-analog converter, DAC)模块进行数模转换,最终由LINE-OUT口输出处理过的音频信号。为了方便调试和存储数据,系统还增加了外部存储器DDR2 (double data rate SDRAM),并通过JTAG (joint test action group)接口与计算机保持通信。
2.2 软件处理流程首先,为了实现3106芯片与C6748之间的数据传输,需要利用StarterWare驱动接口对C6748进行系统配置:使用IIC作为控制总线,C6748为主设备,AIC3106为从设备;配置McASP传输数据,音频传输协议为IIS (inter-IC sound)协议,一个采样周期内同时传输左右声道的数据。为了维护实时的数据传输和处理,还需要额外配置McASP为EDMA(enhanced direct memory access)方式,传输一维或多维数据。因此,可以配置EDMA3通道控制器(EDMA3CC)的参数RAM(PaRAM)为连接传输,完成音频信号的分帧和PING-PONG缓存的操作。
如图 4所示,DSP的数据处理具体参数配置描述如下:设置系统的采样频率为16 kHz,IIS传输数据长度为16 b。EDMA的传输类型为A同步传输,每次传输的采样数据为左右声道各256点,DSP实际处理的数据由上次采集数据和本次采集数据拼接而成,因此音频处理的帧移为16 ms,帧长为32 ms。再使用上节介绍的算法进行语音增强,最后利用重叠相加法完成数据的叠接,得到最终的输出结果。
![]() |
图 4 基于DSP的算法处理流程图 |
图选项 |
3 实验与分析3.1 DSP实现结果验证在工程实现中,首先需要将MATLAB程序改写成C程序。为了验证其准确性,需要将DSP运行的结果与MATLAB仿真的结果进行比较。可以直接将音频信号通过LINE-IN连线接入DSP目标板,音频信号的采样率为16 kHz,根据MSP语音库的特点,每次DSP采集的语音时长为3 s。通过设置CCS集成开发环境的数据存储和仿真器的传输,可以获得AIC3106芯片模数转换后的结果。将实际的采样幅值作为DSP运行和MATLAB仿真的共同输入,按照算法进行分帧加窗等操作,截取第50帧起的连续5帧数据,计算每帧经过处理后结果的短时平均幅度,对比结果如表 2所示;以第50帧为例,经过DSP和MATLAB处理的结果对比如图 5所示(每单位的量化电平为9.155 μV)。
表 2 连续5帧数据的DSP和MATLAB结果对比
输入数据 | | ||
第50帧 | 174.692 | 173.270 | 0.81 |
第51帧 | 180.745 | 180.840 | -0.01 |
第52帧 | 86.939 | 87.194 | -0.29 |
第53帧 | 35.930 | 36.255 | -0.90 |
第54帧 | 8.372 | 8.343 | 0.34 |
表选项
![]() |
图 5 (网络版彩图)第50帧数据的DSP和MATLAB结果对比 |
图选项 |
由表 2和图 5可知,DSP实现算法结果与MATLAB仿真结果相符,单帧数据短时平均幅度的相对误差基本稳定在1%之内。
3.2 算法实时性分析在进行DSP算法调试过程中,需要确定单帧数据计算的时间不超过PING-PONG传输的最长时延(本文为16 ms),否则会出现数据处理衔接不上的情况。因为C6478属于C64架构的DSP,这里可以利用时间戳函数读取核心寄存器中计数器TSCL和TSCH的值,测量代码执行时钟周期数,然后根据DSP主频(本文中为150 MHz)换算成实际时间。
在单帧的数据处理中,经过语音增强的CI前端语音信号还需要使用言语编码策略得到每个电极对应的刺激脉冲,本文以常用的高级组合编码(advanced combined encoder, ACE)言语编码策略为例,描述CI单帧语音数据的处理流程:首先利用本文算法进行语音增强,然后对去噪后的语音做频域变换,带通滤波,能量求和,通道选择和对数压缩,最后得到刺激脉冲编码。为了方便比较和分析,本文测试了单帧计算中实现特定功能的代码段的执行周期数,并换算成实际的执行时间,优化前结果如表 3所示。虽然本算法的DSP单帧仿真运算时间可以控制在14 ms以内,满足实时输出刺激脉冲的要求,但是如果将刺激编码用声码器调制后实时输出,则会出现声音断断续续的现象。同时,也注意到分帧、加窗等常规功能代码段用时较长,如快速Fourier变换(FFT)的执行时间约占总体执行时间的20%,因此有必要对算法的工程实现进行软件优化。优化手段包括如下几点:1)在CCS集成开发环境中执行“—opt_level=2”,即打开软件流水线,执行循环优化,将循环中数组的应用转化为递增指针的形式。2)调用优化算法函数库mathlib和dsplib中的函数,如DSPF_sp_fftSPxSP函数和sqrtsp函数等。由于这些函数库的算法函数都是基于线性汇编或者汇编语言的形式编写的,可以充分利用DSP的架构优势,合理分配硬件资源。3)牺牲部分存储空间,采用查表法实现一些固定的计算,如FFT和IFFT中使用的蝶形因子及分帧加窗时使用的窗函数系数均可直接索引对应数组。
表 3 代码执行周期数统计
函数功能 | 优化前 | 优化后 | 缩减周期数比例/% | |||
执行周期数/104 | 仿真时间/ms | 执行周期数/104 | 仿真时间/ms | |||
分帧 | 2.102 | 0.140 | 0.107 | 0.007 | 94.9 | |
加窗,预加重 | 22.990 | 1.533 | 11.477 | 0.765 | 50.1 | |
FFT | 41.023 | 2.735 | 1.046 | 0.069 | 97.5 | |
本文算法 | 77.990 | 5.199 | 21.640 | 1.443 | 72.3 | |
ACE编码 | 48.896 | 3.260 | 3.683 | 0.246 | 92.5 | |
对数压缩 | 3.754 | 0.251 | 0.687 | 0.046 | 81.7 | |
共计 | 196.754 | 13.117 | 38.640 | 2.576 | 80.4 |
表选项
由表 3可知,使用查表法和优化算法的函数库可以大幅缩减代码执行周期数。另外经过测试,如果只进行优化手段2和3,整体代码的执行周期数为6.306×105,因此在集成开发环境中开启优化选项可以缩短周期约38.7%。
3.3 算法性能的评价在进行算法处理效果分析时,算法的实测环境为5 m×4 m×3.5 m的静音室,其T60(声强衰减60 dB所需时间)约为100 ms。图 3所示的调试平台位于静音室正中央。测试时,以调试平台为圆心,在半径约为1 m的半圆周按照预先设定的角度放置音箱,与图 1的示意图一致,目标声源位于正方向,而干扰声源1和2位于其他方向,模拟实际的说话场景。通过调节电路板的支撑铜柱高度使音箱与双麦克风等高。音箱播放的测试语料来自MSP数据库中剩余的90段语音,随机取3段语音作为测试语料,其中目标声源使用其中任意一段,θ1设置在0°附近(包括0°、5°、10°和15°),剩余2段语料分别作为干扰噪声源1和2,θ2和θ3设置为60°、90°、120°、150°和180°中的任意角度。考虑以上的所有情况,可以得到6种语料组合和100种方位组合。利用调试平台可实现所有情况下的信号采集和算法实时处理工作,同时通过DDR2可以将实时的处理结果暂存起来,留作后续的分析。
为了验证不同情况下算法的性能,本文选取分段信噪比(segmental signal-to-noise ratio,SSNR)的提升ΔSSNR和感知语音质量评估(perceptual evaluation of speech quality, PESQ)作为评价指标。SSNR可以反映语音的局部失真水平,ΔSSNR越高代表算法的噪声消除水平越高;而PESQ与主观评价的相关度高,PESQ越高代表语音的可懂度越高[15]。图 6是所有语料组合经过DSP处理后得到的指标均值。
![]() |
图 6 算法的鲁棒性分析 |
图选项 |
由图 6可以看出,当噪声源分别位于60°和90°方位角时,ΔSSNR和PESQ最高,算法效果最好;在所有的测试条件下,这2项指标均处于较高的提升水平;并且当噪声源的位置固定不变时,随着目标声源在0°附近的变化,ΔSSNR的变化均小于0.1 dB,这体现了算法处理效果的一致性;而对于所有测试条件,算法的PESQ值均高于1.42,并且当目标声源变化时,图中相同方位的干扰声源各点的PESQ变化均小于1%。综合以上可以得到:算法的鲁棒性好,测试时选取的语料、干扰噪声源静止的方位和目标声源较正方向的轻微偏差等因素均不会对算法的效果产生本质的影响。
为了让本算法能够更好地应用于CI中,需要探讨本算法与CI言语编码策略的匹配融合情况。结合前面的性能分析,算法对不同的方位和语料均有较好的鲁棒性,这里只作举例分析,声源特点如表 4所示。在静音室内对声源按照表 4的设置,结合22选16通道的ACE言语编码策略,DSP可以得到原始目标信号、混合语音信号和算法处理后信号的电极刺激脉冲的编码(本文的电刺激动态范围通道的阈值和最大舒适刺激值分别设置为80和200)。
表 4 举例分析时的声源参数
声源分类 | 语料内容 | 声源方位/(°) |
目标源 | “今晚要去弹钢琴” | 0 |
噪声源1 | “玩具小熊在这里” | 90 |
噪声源2 | “比赛已经快完了” | 180 |
表选项
将实时刺激脉冲编码可视化为灰度图如图 7a—7c所示。从灰度图可以看出,混合语音噪声对于CI言语编码策略造成了较大的影响,容易出现刺激通道错选的情况,而本文算法可以很好抑制噪声源,并恢复原始目标信号的刺激编码。在图中实线方框区域中目标信号编码刺激值很小或者基本不刺激,但是由于干扰噪声的引入,言语编码策略对该区域对应的通道电极进行了刺激编码,而经过算法增强后,本区域的错编码情况得到明显改善;对于图中虚线方框所示的区域,增强语音不受干扰噪声源的影响,编码刺激强度和通道选择均与正弦载波的信道声码器对脉冲编码进行调制,得到目标语音的编码情况几乎完全一致。为了进一步展示算法与言语编码策略的融合效果,可以使用同步正弦载波的信道声码器对脉冲编码进行调制,得到仿真的音频信号,计算其功率谱密度(power spectral density, PSD),得到图 7d—7f。由信号的功率谱图可知,目标信号编码后的仿真语音信号最大功率谱密度出现在第2个刺激通道(通道的中心频率为329 Hz),但是混合语音的编码仿真信号的最大功率谱密度出现在第1个刺激通道(通道的中心频率为204 Hz),如图 7f所示,引入本文算法后,增强语音信号恢复了与目标声源的能量特点。经计算,本场景中混合信号与目标信号的各刺激通道的功率谱谱峰序列的相关度为0.688,而经过声码器编码调制以后,增强信号与目标信号谱峰序列相关度提升为0.996。因此,本文算法可以很好地与常用的言语编码策略匹配融合。
![]() |
图 7 语音信号的刺激编码灰度图和功率谱图 |
图选项 |
4 讨论根据空间采样定理,麦克风阵列的距离受到信号波长的限制,如果系统的采样频率为fs,那么能采集到的信号最短波长λmin=c/(fs/2),为了避免相位混叠,双麦克风阵列的间距应满足d < λmin/2,在本文中c=340 m/s,fs=16 kHz。因此针对于本文算法,双麦克风的距离不宜设置过大,需要保证在21 mm以内。此外,较强的混响干扰会降低本文算法的性能,根据仿真实验的结果,在T60=540 ms的混响条件下[16],本文算法对表 4声源的ΔSSNR的提升由原来的9.872 dB降低到了2.739 dB,但是语音可懂度变化不大,PESQ由原来的1.419变为1.399。
5 结论本文提出了一种CI语音增强算法,通过提取采集信号各时频单元延迟参数,对不同方位的声源进行区分,进而达到抑制多方向竞争性语音的目的;利用TI公司的通用浮点DSP搭建了一套调试平台,将算法进行工程实时实现。实验结果表明:该算法对于竞争性语音的方位组合以及语音内容变化有较强的适应能力。同时,算法的复杂度适中,可以方便地与CI主流言语编码(如ACE算法)结合。为了在工程上充分发挥DSP的计算性能,本文还对算法进行了软件优化,使得算法完全满足CI的实时计算需求。
参考文献
[1] | ZENG F G, REBSCHER S, HARRISON W, et al. Cochlear implants:System design, integration, and evaluation[J]. IEEE Reviews in Biomedical Engineering, 2008, 1: 115-142. DOI:10.1109/RBME.2008.2008250 |
[2] | BUECHNER A, DYBALLA K H, HEHRMANN P, et al. Advanced beamformers for cochlear implant users:Acute measurement of speech perception in challenging listening conditions[J]. PLoS One, 2014, 9(4): e95542. DOI:10.1371/journal.pone.0095542 |
[3] | HU Y, LOIZOU P C. Environment-specific noise suppression for improved speech intelligibility by cochlear implant users[J]. The Journal of the Acoustical Society of America, 2010, 127(6): 3689-3695. DOI:10.1121/1.3365256 |
[4] | MENG Q L, ZHENG N H, Li X. Mandarin speech-in-noise and tone recognition using vocoder simulations of the temporal limits encoder for cochlear implants[J]. The Journal of the Acoustical Society of America, 2016, 139(1): 301-310. DOI:10.1121/1.4939707 |
[5] | GOEHRING T, BOLNER F, MONAGHAN J J M, et al. Speech enhancement based on neural networks improves speech intelligibility in noise for cochlear implant users[J]. Hearing Research, 2017, 344: 183-194. DOI:10.1016/j.heares.2016.11.012 |
[6] | CHEN Y S, GONG Q. Real-time spectrum estimation-based dual-channel speech-enhancement algorithm for cochlear implant[J]. Biomedical Engineering Online, 2012, 11: 74. DOI:10.1186/1475-925X-11-74 |
[7] | KONING R, MADHU N, WOUTERS J. Ideal time-frequency masking algorithms lead to different speech intelligibility and quality in normal-hearing and cochlear implant listeners[J]. IEEE Transactions on Biomedical Engineering, 2015, 62(1): 331-341. DOI:10.1109/TBME.2014.2351854 |
[8] | KOKKINAKIS K, RUNGE C, TAHMINA Q, et al. Evaluation of a spectral subtraction strategy to suppress reverberant energy in cochlear implant devices[J]. The Journal of the Acoustical Society of America, 2015, 138(1): 115-124. DOI:10.1121/1.4922331 |
[9] | SPRIET A, VAN DEUN L, EFTAXIADIS K, et al. Speech understanding in background noise with the two-microphone adaptive beamformer BEAMTM in the Nucleus FreedomTM cochlear implant system[J]. Ear and Hearing, 2007, 28(1): 62-72. |
[10] | 宫琴, 郑硕. 基于波束形成与最大似然估计的近距离双麦克风语音增强算法[J]. 清华大学学报(自然科学版), 2018, 58(6): 603-608. GONG Q, ZHENG S. Beamforming and maximum likelihood estimationfor speech enhancement usingdual closely-spaced microphones[J]. Journal of Tsinghua University (Science and Technology), 2018, 58(6): 603-608. (in Chinese) |
[11] | YOUSEFIAN N, LOIZOU P C. A dual-microphone speech enhancement algorithm based on the coherence function[J]. IEEE Transactions on Audio, Speech, and Language Processing, 2012, 20(2): 599-609. |
[12] | AISSA-EL-BEY A, LINH-TRUNG N, ABED-MERAIM K, et al. Underdetermined blind separation of nondisjoint sources in the time-frequency domain[J]. IEEE Transactions on Signal Processing, 2007, 55(3): 897-907. DOI:10.1109/TSP.2006.888877 |
[13] | FU Q J, ZHU M, WANG X S. Development and validation of the Mandarin speech perception test[J]. The Journal of the Acoustical Society of America, 2011, 129(6): EL267-EL273. DOI:10.1121/1.3590739 |
[14] | 陈又圣, 宫琴. 基于双TP型麦克风的电子耳蜗前端指向性语音增强系统的研制[J]. 仪器仪表学报, 2010, 31(9): 1952-1958. CHEN Y S, GONG Q. Study on dual TP microphone-based directional speech enhancement system for cochlear implant[J]. Chinese Journal of Scientific Instrument, 2010, 31(9): 1952-1958. (in Chinese) |
[15] | LOIZOU P C. Speech enhancement:Theory and practice[M]. Boca Raton, USA: CRC press, 2007. |
[16] | GOLDSWORTHY R L. Two-microphone spatial filtering improves speech reception for cochlear-implant users in reverberant conditions with multiple noise sources[J]. Trends in Hearing, 2014, 18: 2331216514555489. |