一种基于DSP的人工耳蜗语音处理器设计
同一段语音由DSP采样处理得到的刺激脉冲与MATLAB采样处理的结果基本相同。实验结果表明,基于DSP的$人工耳蜗语音处理器能实现语音信号中噪声的消除并得到良好的刺激脉冲。
人工耳蜗又称人造耳蜗、电子耳蜗,是目前唯一可以帮助重度耳聋患者恢复听觉的装置。相对于助听器将声音放大改善耳聋患者的听力,人工耳蜗是将声音转换成电信号,然后以微弱电流刺激听觉神经纤维的形式传递声音信息,从而产生听觉。目前商用的人工耳蜗一般由体外语音处理器和体内植人体组成,体外部分由麦克风、语音处理器和编码发射器组成,体内部分由接收解码器、刺激器和电极整列组成,并通过手术植入患者的体内。
目前国内外商用的人工耳蜗语音处理器均采用ASIC设计,投入成本高,可移植性差。随着现代微电子技术的发展,采用通用$集成电路设计实用可靠的人工耳蜗已成为可能,其低成本、移植性好的特性将有助于人工耳蜗更好的普及。该系统基于TI公司的16位定点处理器TMS320VC5509A,由TLV320AIC23完成语音采集和A/D转换,系统设计包括硬件设计部分和软件设计部分。本设计采用双麦克风接收语音输入的自适应噪声消除技术,改善了在低信噪比环境中的语音识别效果。为了提高系统的运行速度、降低系统的功耗,对软件设计部分进行了优化。
1 带自适应噪声消除技术的CIS算法
1.1 自适应噪声消除原理
在低信噪比的环境下,耳聋患者的语音识别率大幅下降。基于自适应滤波器的噪声消除法能有效的增强语音,消除背景噪声,从而提高患者的语音识别率。本文中语音采集部分利用了两个麦克风接收语音,经过采样后作为两个通道的输入信号,输入信号中均包括语音信号成分s和噪声成分n。假设麦克风1的采样结果为s1+n1,麦克风2的采样结果为s2+n2。由于麦克风1和麦克风2分别对同一环境中的声音进行采样,s1和s2为相关信号,n1和n2为相关信号。假设麦克风1和麦克风2收到的语音信号一样,即s1等于s2。通过两路信号相加得到主通道输入信号x1=2s1+n1+n2,通过两路信号相减得到参考通道输入信号x2=n1-n2。由于主通道语音中的噪声n1+n2与参考噪声n1-n2是相关的,参考通道中的$自适应滤波器在接收n1-n2以后使输出在最小均方误差下最接近主通道噪声n1+n2。输出端e得到了消除噪声后的增强语音信号。本文中自适应滤波器采用了归一化LMS算法,当信噪比较大时,采用较小的收敛因子,减少稳定失调误差;当信噪比较小时,采用较大的收敛因子,加快算法的收敛速度。自适应噪声消除原理如图1所示。
1.2 带自适应噪声消除技术的CIS方案
文中设计的人工耳蜗语音处理器采用CIS方案,即连续间隔采样方案(Continuous Interleaved Sampling,CIS)。语音信号先经过预加重处理,以补偿语音信号中的高频成分,然后做FFT变换,经n个带通滤波器后划分为与刺激电极相对应的通道,对各个通道能量求和并利用对数或指数函数压缩已提高患者的听力动态范围。带自适应噪声消除技术的CIS方案如图2所示。
2 硬件结构与设计
本系统以TMS320VC5509A DSP为核心,TLV320AIC23语音Codec芯片等其他外设为辅助设备。TMS320VC5509A控制系统的外设和处理CIS算法程序,TLV320AIC23对外部声音进行采样和A/D转换。TMS320VC5509A是TI公司推出的一款高性能低功耗的16位定点$数字信号处理器,它拥有丰富的片内资源,能方便的控制其他设备,输出处理结果等。TLV320AIC23具有很低的功耗,在ADC和DAC的噪音可分别达到90 dB和100 dB。此外TLV320AIC23支持MIC和LINE IN两种输入方式,内部ADC和DAC转换模块均带有完整的数字滤波器,可以在8 kHz到96 kHz的采样频率范围内传输数据宽度为16位,20位,24位,32位的数据。
语音采集芯片TLV320AIC23与主处理芯片TMS320VC5509A的接口电路如图3所示。
DSP与AIC23的接口有两个,一个是控制接口采用I^2C模块,通过编程完成对AIC23的配置;一个是数据音频接口,通过MCBSP0传输数据。
AIC23的控制接口有SPI/和I^2C两种工作方式,由于VC5509A片内外设含有I^2C模块.因此使用I^2C方式控制AIC23更为方便。此时VC5509A作为I^2C总线的主设备,AIC23作为从设备。在I^2C总线上AIC23有7位外设地址,9位寄存器的设置值。SCL和SD1分别是AIC23的控制端口和数据输入端,分别和VC5509的I^2C模块端口SCL,SDA相连。TLV3320AIC23的数据音频接口支持右判,左判,I^2S和DSP 4种接口模式。本系统采用DSP模式,把AIC23设为主模式,DSP设为从模式,即MCBSP0的移位时钟和帧同步时钟全部由AIC23提供。在帧同步脉冲到来时第一个数据字即为左通道数据,右通道数据紧跟着左通道数据。
语音是时变的,非平稳的随机过程,但由于语音的形成过程与与人类发音系统的生理结构密切相关,通常假设语音信号是短时平稳的,即在10至30 ms的时间段内其频谱特性和一些物理特征参量可近似的看作是不变的。因此语音信号要进行分帧处理,在采样率为8 kHz时可将帧长取为N=256较为合适。
3 系统软件设计
本系统中语音信号由LINE IN输入,LLINE IN和RLINEIN分别对应自适应噪声消除原理图中的麦克风1和麦克风2,语音信号分别经过AIC 23内部的A/D转换后,通过MCBSP0通道传送到VC5509A内。VC5509A对这些语音数据进行CIS算法处理,得到各个通道的刺激脉冲。
系统软件设计分为系统初始化,系统中断处理程序和CIS算法程序。系统的初始化包括设置$时钟发生器,MCBSP初始化,I^2C初始化以及对AIC23控制寄存器的配置。系统中断处理程序设置一个标志位,每中断一次左右声道各采集一个数据,当采集满一帧时能使采样值保存在两个数据缓冲区的另一个缓冲区中。系统中主程序一直处于循环处理过程,在一帧信号执行完CIS算法程序后,等待下一帧信号接收完毕,然后重新执行CIS算法程序。为保证语音信号处理的连续性,CIS算法处理时间应当小于一帧数据的采样时间。本系统CPU时钟为144 MHz,采样频率8 kHz,中断频率8 kHz,因此每125μs采集一个点,采集一帧256个数据需32 ms,即每隔32 ms输出1个刺激脉冲,CIS子程序运行一次需23.1 ms。图4为系统设计流程图。
[page]
4 设计结果验证
文中设计的CIS算法首先用MATLAB进行验证,然后修改成C语言在$DSP上实现。为了更方便的分析算法结果,文中利用了集成在MATLAB 7.0中的CCSL
自适应消噪后的语音信号经过预加重,FFT变换,带通滤波,能量求和及非线性压缩后可得到与每个电极相对应的刺激脉冲。以第一通道为例,同一语音分别经DSP和MATLAB采样处理的结果对比如图6所示。
5 CIS算法实现优化
功耗是$人工耳蜗语音处理器设计需要考虑的重要内容,本系统在降低功耗方面做了一些努力。由于语音实时采样分析的需要,每帧数据的处理时间必须小于每帧数据的采样时间。CIS算法优化后减少了每帧数据的处理时间,可以使CPU工作在较低的工作频率,一定程度上降低了系统功耗。CIS算法中开平方运算和FFT运算需要较多的处理时间,其中浮点数开平方运算需要10 ms,浮点数FFT运算需要51 ms。本算法中采用了DSP函数库中的sqrt_16函数和cfft函数,这些函数全部为优化过的汇编语言,可有C?语言方便调用,执行速度得到了很大的提高。
6 结束语
文中介绍了基于16位定点DSP芯片TMS320VC5509A的人工耳蜗语音处理器的硬件设计和软件设计。为了提高低噪声中的语音识别率,本设计采用了双麦克风接收语音输入的自适应消噪技术。声音经过语音Codec芯片TLV320AIC23采集并进行A/D转换后传输到DSP内。系统运行结果表明,该系统可以实现语音信号中噪声的消除,并得到良好的电极刺激脉冲,其低功耗、低成本、移植性好的特性将有助于人工耳蜗更好的普及。
本文由大比特收集整理(www.big-bit.com)
暂无评论