CN101510424A - 基于语音基元的语音编码与合成方法及系统 - Google Patents
基于语音基元的语音编码与合成方法及系统 Download PDFInfo
- Publication number
- CN101510424A CN101510424A CNA2009100966389A CN200910096638A CN101510424A CN 101510424 A CN101510424 A CN 101510424A CN A2009100966389 A CNA2009100966389 A CN A2009100966389A CN 200910096638 A CN200910096638 A CN 200910096638A CN 101510424 A CN101510424 A CN 101510424A
- Authority
- CN
- China
- Prior art keywords
- speech
- speech primitive
- primitive
- voice
- phoneme
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Landscapes
- Telephonic Communication Services (AREA)
- Compression, Expansion, Code Conversion, And Decoders (AREA)
Abstract
本发明公开了一种基于语音基元的语音编码与合成方法及系统,可用于低带宽高音质的语音传输。本发明在数字语音传输的基础上,以构建的语音基元为编码对象,通过对日常语音的分析,采用聚类算法构建语音基元模型库;然后,利用语音基元自动切分算法,对获得的连续语音流进行语音基元的自动切分,并提取语音基元MFCC特征,通过与语音基元模型库中的语音基元进行匹配识别,获得语音基元所对应的编号,以编号代替语音基元进行编码。在合成语音过程中,通过编号从语音基元模型库中取出该编号所对应的语音基元,并通过数学变换对语音基元的频谱包络进行插值拟合等处理,形成平滑过度的语音。
Description
技术领域
本发明涉及语音编码、语音传输、语音电话等领域,尤其涉及一种基于语音基元的语音编码与合成方法及系统。
背景技术
随着现代网络技术的发展,通过因特网传送语音信号的应用越来越多,尤其是在线聊天工具的迅速普及,已使网络电话成为一种受人喜爱的沟通工具。目前大部分的网络电话都采用G.711、G.723、G.726、G.729等通用的编码技术,网络传送中的语音多采用压缩比较高的中、低速率语音编码。低速率的语音压缩编码虽然给信道的传输带来了方便,也节省了存储空间,但是由于大部分语音编码都是有损压缩,语音质量势必会受到损失。这些技术的共同点都是利用人耳感知的先验知识对语音进行有损压缩。专利号00126112.6公开了一种采用单帧、变帧长、帧内比特自适应的低速语音压缩编码方法,可使编码压缩的能力进一步提高,进而提高了数据传输效率。这些编码方式都是针对人耳听觉特点,设计人耳能容忍的有损压缩方案来达到减小编码速率的目的。实际上,如果只是针对人的语音进行编码,不涉及音乐等其他问题,压缩率还可以进一步改进。
语音学研究表明,音素是从音质角度划分的最小的语音单位,从发音特征上看,人们发出的语音都是由不同的音素构成的,一个音素或者多个音素的组合,形成了不同的音节,如每一个汉字的发音即是一个音节。经过统计分析发现,人发音的音素个数其实是有限的,而且有一些音素是可以由其他一些音素组合而成,由此可知,每一种语言便可统计出构成该语言发音特征的基本音素。根据国际音标协会组织2005年最近公布结果,世界上已知的发音中,肺部气流音有59个,非肺部气流音有14个,其他辅音12个,单元音28个,其他的发音,不外乎这些音的组合。
网络语音传输或电话语音通信时,通常收听方所关心的仅是说话方发出的语音信息,如果传输或通信的内容只有人说话的语音信息,没有其他声音或者滤掉其他声音,则语音传输在已有方法基础上还可以进一步压缩。
此外,通过对连续语音流的波形及频谱包络分析发现,无论是一次连续的语音流所生成的同一波形中,还是不同语音流所生成的不同波形中,很多波形是相同或非常相似的,如果在编码之前能够对这些波形进行处理,对具有共同特征的波形段进行分析,建立波形模型库,为不同的波形赋予编号,便可以改进已有的以帧为单位进行采样的编码方式,而是仅对波形对应的编号进行编码,从而极大地提高编码的效率。
本发明以语音基元为编码单位,设计了一种更优的语音编码方案。该方案根据获得的连续语音流数据,提取相应的语音基元,构建语音基元模型库,通过对获得的连续语音流进行切分,将切分的语音基元与模型库中的语音基元进行匹配,获得当前语音的语音基元编号。于是原先需要上百维的频谱信号或者十几维的倒谱信号来描述的语音信号,现在仅用一个整数编号就可以描述。在解码的时候,根据此整数,从库中获得真正的谱信号重建语音,从而大大提高语音的压缩率。
发明内容
为了对语音流数据进行压缩编码,使语音数据在低带宽或网络性能较差情况下进行有效传输,本发明首先公开了一种生成语音基元模型库的方法,包括以下步骤:
获取语音流样本数据,并将所述语音流数据进行切分,以获取由不同音素或不同波形为单位所构成的语料库,其中,所述构成语料库的基本单元称为语音基元;
提取所述语音基元的特征,构成特征向量;
对所述语音基元特征向量样本进行模糊聚类,将所有数据样本分为N类,得到对应的聚类中心和隶属度函数;
分析各类语音基元的特征,进而确定拟建语音基元模型库所需的最少语音基元;
对各类语音基元的语音特性进行分析处理,以获得每一类语音基元的频谱包络特征,并将所述频谱包络特征存储于语音基元模型库中,构成语音基元模型库;
所述对语音流数据进行切分,是以音素或者帧为单位,对连续语音流进行切分;
所述以音素为单位进行切分是指采用音素自动切分算法,将连续的语音流自动地切分成由不同的音素所构成的音素集合;
所述以帧为单位进行切分是指以某一时间帧为单位,将连续的语音流切分成由不同波形所构成的语音波形集合;
所述语音基元模型库是指构成可理解的语音流所需的最小的音素样本库或最小的语音波形样本库;
所述音素自动切分算法包括以下步骤:
将获得的连续语音流自动切分成以音节为单位的音节序列;
对每一个音节进一步分析音素的构成;
如果该音节为单个音素构成,则将所述音节切分为对应的音素;
如果该音节为多个音素构成,则对所述音节进一步细致切分,最终切分成几个独立的单个音素;
采用AMDF、AC、CC、SHS基频提取算法中的任何一种,提取每个音素基频F0;
采用Mel频率倒谱系数MFCC)作为语音信号特征参数,提取每个音素的频谱包络;
采用隐马尔可夫模型对音素特征参数样本集进行训练、识别,最终确定模型中的相关参数,训练测试后的隐马尔可夫模型,用于对连续语音流中所包含的音素进行自动切分。
所述切分语音流获取不同波形的方法还包括:
以相同时间帧为切分点,对连续语音流的波形进行切分,获取等时间帧情况下不同的语音波形集合;
或以不同的时间帧为切分点,对连续语音流的波形进行切分,获取不同时间帧情况下的不同语音波形集合;
采用AMDF、AC、CC、SHS基频提取算法中的任何一种,提取切分后每一段波形的语音基频F0;
采用Mel频率倒谱系数(MFCC)作为语音信号特征参数,提取每段波形的频谱包络。
所述生成语音基元模型库的过程还包括以下步骤:
采用模糊聚类的方法对音素集合或波形集合进行聚类分析,将音素或波形划分为N类;
对每一类音素或波形的语音特征进行分析,以聚类中心点或其他点的相应组合为对象,替代该类音素集或波形集,即从同一类音素或波形集中抽取出一个音素或一个波形以代表该类,最终抽取出N个音素或N个波形;
确定取出的N个音素或N个波形的基频F0和频谱包络;
将上述N个音素或N个波形赋予其相应的编号,以编号为顺序将N个音素或N个波形的相关信息进行存储,以构成语音基元模型库。
本发明还公开了一种基于语音基元模型库的语音编码方法,包括以下步骤:
对连续的语音流进行自动切分,获取语音基元及其基频F0,并提取语音基元的频谱包络;所述语音基元是指音素或等时间帧的语音波形或不同时间帧的语音波形;
将提取的语音基元与语音基元模型库中的语音基元进行匹配,如果匹配成功,则返回该语音基于在语音基元模型库中所对应的语音基元编号;
将返回的语音基元编号、语音基元的基频F0和相关信息按照预设格式进行编码;
采用压缩算法对已编码的数据进一步压缩,以分组或电路交换的形式通过IP网络或电话通信系统将该语音压缩数据包传输到目的地;
所述语音基元匹配包括以下步骤:
采集连续的语音流信息;
对获得的连续语音流进行分析,并采用语音基元自动切分算法将连续语音流分割成语音基元序列,即音素序列或波形序列;
将分割的语音基元直接或通过变换或误差处理操作后,与语音基元模型库中的语音基元进行模式匹配;
如果匹配成功则返回语音基元所对应的编号及相关信息;
如果匹配不成功则采用相应容错处理方法;
所述语音基元变换是指通过曲线拟合、噪声误差处理的方式对语音基元的异常情形进行分析处理,以便与语音基元模型库中的语音基元进行匹配;
所述语音基元的曲线拟合是指通过最小二乘法或B样条或三次样条插值法,对信息不完整的语音基元波形曲线进行拟合,以复原该语音基元的原本波形;
所述语音基元误差处理是指通过采用语音增强算法,对语音基元进行处理,以消除噪声、增强语音清晰度,提高语音自然度;
所述容错处理方法是指通过容错算法,对匹配不成功的语音基元进行处理,使语音编码过程具有较强的鲁棒性和健壮性。
所述编码过程包括以下步骤:
获得语音基元编号、语音基元的基频F0和相关信息;
对语音基元编号、语音基元的基频F0和相关信息进行分析,以确定合适的编码方法;
采用LZW、霍夫曼Huffman、曼彻斯特、单极性码等编码方法之一对上述信息进行编码;
将编码后的字符串称为语音基元编码串。
所述对已编码的数据进一步压缩包括以下步骤:
接收语音基元编码串;
采用压缩分析算法对语音基元编码串进行分析,如果该语音基元编码串有进一步压缩的空间,则采用压缩算法对其进行压缩,然后对压缩后的语音基元数据包进行打包传输;
如果该语音基元编码串没有可压缩的空间,则不进行压缩,直接对压缩后的语音基元数据包进行打包传输;
所述打包传输是指采用IP网络协议或电路交换中的相关协议,对压缩的数据包以分组或电路交换的形式通过IP网络或电话系统进行传输,送至目的地。
本发明还提供了一种基于语音基元模型库的语音解码方法,包括以下步骤:
接收方接收语音基元压缩数据包;
按照与压缩算法相对应的解压缩算法对该数据包进行解压缩处理;
从解压缩的数据包中获得语音基元编码串;
按照语音基元编码算法,对语音基元编码串进行逆向的解码操作,以获得原始语音基元数据串;
从语音基元数据串中获得语音基元编号、语音基元基频F0和相关信息;
根据语音基元编号,查找语音基元模型库,取出该编号对应的语音基元的语音特征,并进行语音合成;
通过语音合成方法,将发过来的语音基元还原为可理解的、清晰的语音信息;
所述语音合成方法还包括以下步骤:
分析接收到的语音基元编号,如果该数值正常,则根据该数值查询语音基元模型库,否则进行容错处理或忽略该语音基元;
以语音基元编号为检索条件,从语音基元模型库中取出该编号所对应的语音基元,即音素或波形;
根据取出的语音基元的语音特征、接收到的该语音基元的基频F0和相关信息对语音进行合成。
本发明还提供了一种基于语音基元的语音编码与合成方法,包括以下步骤:
获取大量语音流样本数据,通过对所述样本数据进行处理,构成语音基元模型库;
对获取到的连续语音流进行切分,获取语音基元及其基频F0,然后将该语音基元与语音基元模型库中的语音基元进行匹配,获得相对应的语音基元编号,采用编码方法按照一定的格式对语音基元编号语音基元基频F0和语音特征附属信息进行编码,将编码后的数据包进一步压缩,通过IP网络或电话网络将该语音压缩数据包传输到目的地;
接收方收到语音压缩数据包后,采用相应的解压缩算法解压数据包,根据语音基元编号查找语音基元模型库,取出该语音基元所对应的语音特征,并根据基频F0和附属信息还原为语音。
本发明还公开了一种基于语音基元的语音编码与合成系统,包括以下模块:预处理模块、语音编码模块和语音解码模块;
所述预处理模块,负责采集分析连续语音流,将语音流切分成语音基元序列,并通过聚类算法对大量的语音基元进行聚类分析,构建语音基元模型库,以供语音编码模块和语音解码模块调用;
所述语音编码模块,以预处理模块构建的语音基元模型库为基础,对接收到的语音流进行切分以获取语音基元及其基频F0,根据语音基元匹配算法从语音基元模型库中获得该语音基元所对应的编号,然后将语音基元编号、基频F0和附属信息按照相应编码算法进行编码,并采用压缩算法对其进一步压缩,然后将其打包发送;
所述语音解码模块,负责接收所述语音编码模块传送过来的语音数据包,对其进行解压缩,获取语音基元编号,以该编号为检索条件,查询语音基元模型库,提取该编号对应的语音基元信息,最终通过语音合成算法还原语音。
所述基于语音基元的语音编码与合成系统,包括语音发送端和语音接收端;
所述语音发送端,包括语音基元模型库、语音编码模块,发送端语音编码模块对接收到的语音流进行切分,并根据语音基元匹配算法从语音基元模型库中获得该语音基元所对应的编号,将语音基元编号、基频F0和附属信息按照相应编码算法进行编码,并采用压缩算法对其进一步压缩,然后将其打包发送;
所述语音接收端,包括语音基元模型库、语音解码模块,接收端语音解码模块负责接收所述语音编码模块传送过来的语音数据包,对其进行解压缩,获取语音基元编号,以该编号为检索条件,查询语音基元模型库,提取该编号对应的语音基元信息,最终通过语音合成算法还原语音。。
通过本发明提供的方法,在进行语音传输的时候,只需传输语音基元模型库中语音基元的编号、基频信号和音素声调编码即可。也就是说,如果采用256个聚类来描述人类的语音,而基频信号采用一个字节来记录的话,每帧语音信号(通常是25毫秒的语音,采用16K16BitsPCM格式需要800字节)只需要2个字节来表示。
当语音数据包被传输到目的地后,由语音解码模块对收到的语音数据进行解码,并由语音合成方法完成语音合成工作。
语音合成过程是根据语音基元编号从语音基元模型库中获得语音谱包络特征。由于模板匹配分类过程可能产生错误,需要对取出来的特征进行平滑,如果相邻的模板之间距离过大,人耳就会听到刺激性的噪声,因此,从模板序号到特征的映射的过程,不仅仅是将模板均值取出来这么简单。模板库中,还需要保存各个特征的一阶差分和二阶差分信息,在解码的时候,利用最小二乘法求解出匹配误差最小,一阶差分误差也最小,二阶差分也最小的动态谱包络。
最后,用基频F0生成具有平坦谱包络的激励源,再用谱包络滤波此信号,合成相应的语音。
本发明的有益效果主要包括:
(1)与以往的以帧为单位,对每一帧的语音进行采样、编码的方法相比,本发明以语音基元为单位进行编码,由于每一种语言所构成的语音基元个数有限,因此,以语音基元为单位进行编码降低了编码空间;
(2)本发明通过建立语音基元模型库,在对语音基元进行编码时以语音基元模型对应的编号数值,取代以往编码方法中的采样点,即以一个数值替代多个数值,降低了编码字符串的长度,提高了编码的效率;
(3)在以语音基元编号数值进行编码的基础上,本发明采用相应压缩算法对其可压缩性进行分析,从而进一步压缩,以便在网络性能较差、带宽较小的情况下,能够对语音信息进行可靠
(4)本发明是一种在网络性能处于极限状态下的极限语音编码、传输和合成方法,可用于一些特殊情况下对语音通信的需求。
附图说明
图1是本发明中系统总体框架图;
图2是本发明中提取MFCC特征图;
图3是本发明中音素切分流程图。
具体实施方式
本发明中的语音基元可以是音素,也可以是等帧或变帧截取的波形,采用不同的语音基元便能够建立不同的语音基元模型库。在具体实施时,可以以其中的一种模型库为基础,在此之上对传输的语音进行编码和解码;也可以将几种模型库组合使用,对一些特殊情况下的复杂的语音进行编码。
本发明的基本构思为:采集大量的语音流数据样本,对连续的语音流进行语音基元的自动切分,形成语音基元集,提取语音基元的特征,并采用模糊聚类的方法对语音基元集进行聚类,从而建立语音基元模型库;以建立的语音基元模型库为基础,当获得连续语音流时,则对语音流进行语音基元的自动切分,然后在语音基元模型库中搜索出与当前语音基元最接近的模型,采用此模型的编号及其他相关信息通过语音编码后传输给接收方,接收方收到该语音数据包后由语音解码处理模块根据收到的语音基元编号,查找语音基元模型库,并根据上下文重估出语音包络,结合基频合成语音。
图1是本发明系统总体框架图。
首先在101处,采用隐马尔可夫模型(HMM)对连续语音流样本进行语音基元的自动切分,构成语料库;
在102处,通过图2Mel频率倒谱系数(Mel-Frequency CepstrumCoefficients)的方法从每一个语音基元中提取出MFCC特征;
MFCC定义为语音信号经过快速傅立叶变换后所得到的加窗短时信号的实倒谱。与实倒谱的不同之处在于,加窗短时信号的实倒谱使用了非线性频率刻度,以与人的听觉系统相接近。
通过MFCC算法对语音基元的特征进行提取后,每个语音基元便可表示为相应的特征矢量,语料库便转换为相对应的语音基元特征矢量库。
在103处,通过模糊聚类的方法,根据语音基元的MFCC特征,对构成的语音基元集进行聚类,根据所使用的语言的特征,将语音基元聚为N类,进而构造包含有N类语音基元的模型库,具体的聚类过程为:
首先准备采集的语音基元特征集,X={xi,i=1,2,...,n}是n个语音基元样本组成的样本集合,c为预定的类别数目,mj,j=1,2,...c为每个聚类的中心,μj(xi)是第i个样本对于第j类的隶属度函数。用隶属度函数定义的聚类损失函数见下式(1)。
其中,b>1是一个可以控制聚类结果的模糊指数。
在不同的隶属度定义方法下最小化式(1)的损失函数,且要求一个样本对于各个类聚类的隶属度之和为1,即:
在条件式(2)下求式(1)的极小值,令J对mj和μj(xi)的偏导数为0,可得必要条件:
用迭代方法求解式(3)和式(4),当算法收敛时,就得到了各类音素的聚类中心和各个样本对于各类的隶属度值,从而完成了模糊聚类的划分,对每一类语音基元进一步处理,抽取出能够代表该类的语音基元,从而构建语音基元模型库。
语音基元模型库建立后,便可以基于该语音基元模型库,对获得的连续语音流进行分析。在104处,对获得的的语音流进行语音基元的自动切分,并采用Mel频率倒谱系数为语音信号特征参数,提取语音基元的特征:
在105处,通过如下公式判断当前MFCC特征对应的最佳模型:
最终获得最佳模型序号为n=argmaxi{P(Mi|X)}
在106处,将音素模型对应的序号n、基频及其他相关信息,按照一定的格式进行编码;
在107处,根据106处发过来的编码信息,采用压缩算法对其进一步压缩,并按照网络协议将其打包传输;
在108处,根据最佳模型序号n,取出对应模型的均值、一阶差分、二阶差分,联合前面N帧的知识,采用最小二乘法,以误差总和最小为原则,求出最佳的谱包络特征。
在109处,根据基频F0,生成频谱均匀的激励源信号,对此信号进行滤波,使得其谱包络为104处提取的包络,则此语音为恢复出来的结果。
下面以音素为例,进一步阐述音素的自动切分过程、聚类、建模型库和编码解码过程:
获得连续语音流后,便可对连续语音流进行分析,如图3所示,先以音节为单位对连续的语音流进行切分,如汉语发音中每一个字即是一个音节,这一切分过程实际上是将连续语音流中的每一个字的发音切分出来;
切分出音节后,再对每一个音节进行分析,如果该音节是由单个音素构成,则将该音素存入语料库;
如果该音节不是由单个音素构成,则对该音节进一步切分,将该音节切分成由多个单个音素构成,并将这些音素存入语料库;
参考郑鸿的《基于HMM的普通话连续语流中音素的自动切分》,如果将连续语音流中出现的语音数据看作是一个随机过程,则语音序列可看作是一个随机序列,进而建立马尔可夫链以及隐马尔可夫模型(HMM);
为HMM模型分配累计器,并将累计器清零;
获得含有大量音素的语料库,然后将语音序列样本对应的描述符号相应的HMM连接起来组成一个组合HMM;
计算组合HMM的前向和后向概率;
使用计算所得的前向和后向概率计算每一时间帧的状态占有概率,更新相应的累计器;
对所有语音数据样本中的数据进行上述过程,完成对语音样本的训练;
使用累计器的值计算HMM的新估计参数;
将每一个HMM的状态θi拥有的每一个令牌的拷贝传递到所有相邻的状态θj,并增加该令牌拷贝的对数概率log{aij}+log{bj(Oi)};
每一个后续状态检查前面状态传递过来的所有令牌,保留最高概率的令牌,其余的丢弃;
经过上述过程后,便可对连续的语音流进行自动识别切分,获得连续的音素序列。
完成上述音素的自动切分后,便可对音素集进行模糊聚类,可根据不同语言音素的构成特征设定模糊聚类的聚类个数,如汉语的语音可由29个基本音素及其组合构成,具体参见黄中伟等的《普通话语音识别中的基本音素分析》,因此,本实施例中在对音素进行聚类时,将聚类的个数设为30,模糊指数b设为2,完成聚类后,以每一类的类心作为该类的特征音素:
因此,便可生成一个由30个音素所构成的语音基元模型库,该语音基元模型库的结构如下:
语音基元编号 | 语音基元 | 语音基元基频 | 语音基元波形 |
采用Mel频率倒谱系数,提取收到的连续语音流中每一个音素的频谱包络特征,并将该频谱包络特征与语音基元模型库中的语音基元的波形进行匹配,从而获得当前音素的编号。
将连续获得的音素编号、音素的基频,进行编码,并可通过压缩算法,如LZW数据压缩算法进一步压缩,然后将压缩后的数据包通过网络或电话通信网络传输到目的地。
接收端收到数据包解压缩后,取出数据包中的音素编号序列,并根据最佳模型编号n,取出对应模型的均值、一阶差分、二阶差分,联合前面N帧的知识,采用最小二乘法,以误差总和最小为原则,求出最佳的谱包络特征。
最后,根据基频F0,生成频谱均匀的激励源信号,对此信号进行滤波,使得其谱包络为104处提取的包络,将语音还原。
以上公开的仅为本发明的一个具体实施例,但是,本发明并非局限于此,任何按照本专利发明内容所描述方法而设计的变化都应落入本发明的保护范围。
Claims (15)
1、一种生成语音基元模型库的方法,其特征在于,包括以下步骤:
获取语音流样本数据,并对所述语音流数据进行切分,以获取由不同音素或不同波形为单位所构成的语料库,其中,所述构成语料库的基本单元称为语音基元;
提取所述语音基元的特征,构成特征向量;
对所述语音基元特征向量样本进行模糊聚类,将所有数据样本分为N类,得到对应的聚类中心和隶属度函数;
分析各类语音基元的特征,进而确定拟建语音基元模型库所需的基本语音基元;
对各类语音基元的语音特性进行分析处理,以获得每一类音素的频谱包络特征,并将所述频谱包络特征存储于语音基元模型库中,构成语音基元模型库。
2、如权利要求1所述生成语音基元模型库的方法,其特征在于,所述对语音流数据进行切分为:以音素或者帧为单位,对连续语音流进行切分;
所述以音素为单位进行切分是指采用音素自动切分算法,将连续的语音流自动地切分成由不同的音素所构成的音素集合;
所述以帧为单位进行切分是指以某一时间帧为单位,将连续的语音流切分成由不同波形所构成的波形集合;
所述语音基元模型库是指构成可理解的语音流所需的最小的音素样本库或最小的语音波形样本库。
3、如权利要求1所述生成语音基元模型库的方法,其特征在于,所述音素自动切分算法包括以下步骤:
将获得的连续语音流自动切分成以音节为单位的音节序列;
对每一个音节进一步分析音素的构成;
如果该音节为单个音素构成,则将所述音节切分为对应的音素;
如果该音节为多个音素构成,则对所述音节进一步细致切分,最终切分成几个独立的单个音素;
采用AMDF、AC、CC、SHS基频提取算法中的任何一种,提取每个音素基频F0;
采用Mel频率倒谱系数MFCC作为语音信号特征参数,提取每个音素的频谱包络;
采用隐马尔可夫模型对语音特征参数样本集进行训练、识别,最终确定模型中的相关参数,训练测试后的隐马尔可夫模型,用于对连续语音流中所包含的音素进行自动切分。
4、如权利要求1所述生成语音基元模型库的方法,其特征在于,所述切分语音流获取不同波形的方法还包括:
以相同时间帧为切分点,对连续语音流的波形进行切分,获取等时间帧情况下不同的波形集合;
以不同的时间帧为切分点,对连续语音流的波形进行切分,获取不同时间帧情况下的不同波形集合;
采用AMDF、AC、CC、SHS基频提取算法中的任何一种,提取切分后每一段波形的语音基频F0;
采用Mel频率倒谱系数MFCC作为语音信号特征参数,提取每段波形的频谱包络。
5、如权利要求1所述生成语音基元模型库的方法,其特征在于,生成语音基元模型库的过程还包括以下步骤:
采用模糊聚类的方法对音素集合或波形集合进行聚类分析,将音素或波形划分为N类;
对每一类音素或波形的语音特征进行分析,以聚类中心点或其他点的相应组合为对象,替代该类音素集或波形集,即同一类音素或波形集中抽取出一个音素或一个波形以代表该类,最终抽取出N个音素或N个波形;
确定取出的N个音素或N个波形的基频F0和频谱包络;
将上述N个音素或N个波形赋予其相应的编号,以编号为顺序将N个音素或N个波形的相关信息进行存储,以构成语音基元模型库。
6、一种基于语音基元模型库的语音编码方法,其特征在于,包括以下步骤:
对连续的语音流进行自动切分,获取语音基元及其基频F0,并提取语音基元的频谱包络;所述语音基元是指音素或等时间帧的语音波形或不同时间帧的语音波形;
将提取的语音基元与语音基元模型库中的语音基元进行匹配,如果匹配成功,则返回该语音基于在语音基元模型库中所对应的语音基元编号;
将返回的语音基元编号、语音基元的基频F0和相关信息按照预设格式进行编码;
采用压缩算法对已编码的数据进一步压缩,以分组或电路交换的形式通过IP网络或电话通信系统将该语音压缩数据包传输到目的地。
7、如权利要求6所述基于语音基元模型库的语音编码方法,其特征在于,所述语音基元匹配包括以下步骤:
采集连续的语音流信息;
对获得的连续语音流进行分析,并采用语音基元自动切分算法将连续语音流分割成语音基元序列,即音素序列或波形序列;
将分割的语音基元直接或通过变换或误差处理操作后,与语音基元模型库中的语音基元进行模式匹配;
如果匹配成功则返回语音基元所对应的编号及相关信息;
如果匹配不成功则采用相应容错处理方法。
8、如权利要求7所述基于语音基元模型库的语音编码方法,其特征在于,所述语音基元变换是指通过曲线拟合、噪声误差处理的方式对语音基元的异常情形进行分析处理,以便与语音基元模型库中的语音基元进行匹配;
所述语音基元的曲线拟合是指通过最小二乘法或B样条或三次样条插值法,对信息不完整的语音基元波形曲线进行拟合,以复原该语音基元的原本波形;
所述语音基元误差处理是指通过采用语音增强算法,对语音基元进行处理,以消除噪声、增强语音清晰度,提高语音自然度;
所述容错处理方法是指通过容错算法,对匹配不成功的语音基元进行处理,使语音编码过程具有较强的鲁棒性和健壮性。
9、如权利要求6所述基于语音基元模型库的语音编码方法,其特征在于,所述编码过程包括以下步骤:
获得语音基元编号、语音基元的基频F0和相关信息;
对语音基元编号、语音基元的基频F0和相关信息进行分析,以确定合适的编码方法;
采用霍夫曼Huffman、LZW、曼彻斯特、单极性码等编码方法之一对上述信息进行编码;
将编码后的字符串称为语音基元编码串。
10、如权利要求6所述基于语音基元模型库的语音编码方法,其特征在于,所述对已编码的数据进一步压缩包括以下步骤:
接收语音基元编码串;
采用压缩分析算法对语音基元编码串进行分析,如果该语音基元编码串有进一步压缩的空间,则采用压缩算法对其进行压缩,然后对压缩后的语音基元数据包进行打包传输;
如果该语音基元编码串没有可压缩的空间,则不进行压缩,直接对压缩后的语音基元数据包进行打包传输;
所述打包传输是指采用IP网络协议或电路交换中的相关协议,对压缩的数据包以分组或电路交换的形式通过IP网络或电话系统进行传输,送至目的地。
11、一种基于语音基元模型库的语音解码方法,其特征在于,包括以下步骤:
接收方接收语音基元压缩数据包;
按照与压缩算法相对应的解压缩算法对该数据包进行解压处理;
从解压的数据包中获得语音基元编码串;
按照语音基元编码算法,对语音基元编码串进行逆向的解码操作,以获得原始语音基元数据串;
从语音基元数据串中获得语音基元编号、语音基元基频F0和相关信息;
根据语音基元编号,查找语音基元模型库,取出该编号对应的语音基元的语音特征,并进行语音合成;
通过语音合成方法,将发过来的语音基元还原为可理解的、清晰的语音信息。
12、如权利要求11所述基于语音基元模型库的语音解码方法,其特征在于,所述语音合成方法还包括以下步骤:
分析接收到的语音基元编号,如果该数值正常则根据该数值查询语音基元模型库,否则进行容错处理或忽略该语音基元;
以语音基元编号为检索条件,从语音基元模型库中取出该编号所对应的语音基元,即音素或波形;
根据取出的语音基元的语音特征、接收到的该语音基元的基频F0和相关信息对语音进行合成。
13、一种基于语音基元的语音编码与合成方法,其特征在于,包括以下步骤:
获取大量语音流样本数据,通过对所述样本数据进行处理,构成语音基元模型库;
对获取到的连续语音流进行切分,获取语音基元及其基频F0,然后将该语音基元与语音基元模型库中的语音基元进行匹配,获得相对应的语音基元编号,采用编码方法按照一定的格式对语音基元编号、语音基元基频F0和语音特征附属信息进行编码,将编码后的数据包进一步压缩,通过IP网络或电话网络将该语音压缩数据包传输到目的地;
接收方收到语音压缩数据包后,采用相应的解压缩算法解压数据包,根据语音基元编号查找语音基元模型库,取出该语音基元所对应的语音特征,并根据基频F0和附属信息还原为语音。
14、一种基于语音基元的语音编码与合成系统,其特征在于,包括以下模块:预处理模块、语音编码模块和语音解码模块;
所述预处理模块,负责采集分析连续语音流,将语音流切分成语音基元序列,并通过聚类算法对大量的语音基元进行聚类分析,构建语音基元模型库,以供语音编码模块和语音解码模块调用;
所述语音编码模块,以预处理模块构建的语音基元模型库为基础,对接收到的语音流进行切分以获取语音基元及其基频F0,根据语音基元匹配算法从语音基元模型库中获得该语音基元所对应的编号,然后将语音基元编号、基频F0和附属信息按照相应编码算法进行编码,并采用压缩算法对其进一步压缩,然后将其打包发送;
所述语音解码模块,负责接收所述语音编码模块传送过来的语音数据包,对其进行解压缩,获取语音基元编号,以该编号为检索条件,查询语音基元模型库,提取该编号对应的语音基元信息,最终通过语音合成算法还原语音。
15、如权利要求14所述基于语音基元的语音编码与合成系统,其特征在于,包括语音发送端和语音接收端;
所述语音发送端,包括语音基元模型库、语音编码模块,发送端语音编码模块对接收到的语音流进行切分,并根据语音基元匹配算法从语音基元模型库中获得该语音基元所对应的编号,将语音基元编号、基频F0和附属信息按照相应编码算法进行编码,并采用压缩算法对其进一步压缩,然后将其打包发送;
所述语音接收端,包括语音基元模型库、语音解码模块,接收端语音解码模块负责接收所述语音编码模块传送过来的语音数据包,对其进行解压缩,获取语音基元编号,以该编号为检索条件,查询语音基元模型库,提取该编号对应的语音基元信息,最终通过语音合成算法还原语音。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN2009100966389A CN101510424B (zh) | 2009-03-12 | 2009-03-12 | 基于语音基元的语音编码与合成方法及系统 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN2009100966389A CN101510424B (zh) | 2009-03-12 | 2009-03-12 | 基于语音基元的语音编码与合成方法及系统 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN101510424A true CN101510424A (zh) | 2009-08-19 |
CN101510424B CN101510424B (zh) | 2012-07-04 |
Family
ID=41002801
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN2009100966389A Active CN101510424B (zh) | 2009-03-12 | 2009-03-12 | 基于语音基元的语音编码与合成方法及系统 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN101510424B (zh) |
Cited By (20)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102522091A (zh) * | 2011-12-15 | 2012-06-27 | 上海师范大学 | 基于仿生模式识别的极低速率语音编码方法 |
CN103811008A (zh) * | 2012-11-08 | 2014-05-21 | 中国移动通信集团上海有限公司 | 一种音频内容识别方法和装置 |
CN104637482A (zh) * | 2015-01-19 | 2015-05-20 | 孔繁泽 | 一种语音识别方法、装置、系统以及语言交换系统 |
CN105023570A (zh) * | 2014-04-30 | 2015-11-04 | 安徽科大讯飞信息科技股份有限公司 | 一种实现声音转换的方法及系统 |
CN105390138A (zh) * | 2014-08-26 | 2016-03-09 | 霍尼韦尔国际公司 | 用于使用语音识别解释剪短的语音的方法和装置 |
CN105989849A (zh) * | 2015-06-03 | 2016-10-05 | 乐视致新电子科技(天津)有限公司 | 一种语音增强方法、语音识别方法、聚类方法及装置 |
WO2016172871A1 (zh) * | 2015-04-29 | 2016-11-03 | 华侃如 | 基于循环神经网络的语音合成方法 |
CN106887231A (zh) * | 2015-12-16 | 2017-06-23 | 芋头科技(杭州)有限公司 | 一种识别模型更新方法及系统以及智能终端 |
CN106981289A (zh) * | 2016-01-14 | 2017-07-25 | 芋头科技(杭州)有限公司 | 一种识别模型训练方法及系统以及智能终端 |
CN107564513A (zh) * | 2016-06-30 | 2018-01-09 | 阿里巴巴集团控股有限公司 | 语音识别方法及装置 |
CN108877801A (zh) * | 2018-06-14 | 2018-11-23 | 南京云思创智信息科技有限公司 | 基于多模态情绪识别系统的多轮对话语义理解子系统 |
CN108899050A (zh) * | 2018-06-14 | 2018-11-27 | 南京云思创智信息科技有限公司 | 基于多模态情绪识别系统的语音信号分析子系统 |
CN104934030B (zh) * | 2014-03-17 | 2018-12-25 | 纽约市哥伦比亚大学理事会 | 用音节上的多项式表示音高轮廓的数据库及韵律产生方法 |
CN109545190A (zh) * | 2018-12-29 | 2019-03-29 | 联动优势科技有限公司 | 一种基于关键词的语音识别方法 |
CN109616131A (zh) * | 2018-11-12 | 2019-04-12 | 南京南大电子智慧型服务机器人研究院有限公司 | 一种数字实时语音变音方法 |
CN109754782A (zh) * | 2019-01-28 | 2019-05-14 | 武汉恩特拉信息技术有限公司 | 一种辨别机器语音和自然语音的方法及装置 |
CN109817196A (zh) * | 2019-01-11 | 2019-05-28 | 安克创新科技股份有限公司 | 一种噪音消除方法、装置、系统、设备及存储介质 |
CN112951200A (zh) * | 2021-01-28 | 2021-06-11 | 北京达佳互联信息技术有限公司 | 语音合成模型的训练方法、装置、计算机设备及存储介质 |
US11200328B2 (en) | 2019-10-17 | 2021-12-14 | The Toronto-Dominion Bank | Homomorphic encryption of communications involving voice-enabled devices in a distributed computing environment |
CN113889083A (zh) * | 2021-11-03 | 2022-01-04 | 广州博冠信息科技有限公司 | 语音识别方法及装置、存储介质、电子设备 |
Family Cites Families (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP3349905B2 (ja) * | 1996-12-10 | 2002-11-25 | 松下電器産業株式会社 | 音声合成方法および装置 |
US6119086A (en) * | 1998-04-28 | 2000-09-12 | International Business Machines Corporation | Speech coding via speech recognition and synthesis based on pre-enrolled phonetic tokens |
JP2002091475A (ja) * | 2000-09-18 | 2002-03-27 | Matsushita Electric Ind Co Ltd | 音声合成方法 |
CN1210688C (zh) * | 2002-04-09 | 2005-07-13 | 无敌科技股份有限公司 | 语音音素的编码及语音合成方法 |
CN1779779B (zh) * | 2004-11-24 | 2010-05-26 | 摩托罗拉公司 | 提供语音语料库的方法及其相关设备 |
CN101312038B (zh) * | 2007-05-25 | 2012-01-04 | 纽昂斯通讯公司 | 用于合成语音的方法 |
-
2009
- 2009-03-12 CN CN2009100966389A patent/CN101510424B/zh active Active
Cited By (31)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102522091A (zh) * | 2011-12-15 | 2012-06-27 | 上海师范大学 | 基于仿生模式识别的极低速率语音编码方法 |
CN103811008A (zh) * | 2012-11-08 | 2014-05-21 | 中国移动通信集团上海有限公司 | 一种音频内容识别方法和装置 |
CN104934030B (zh) * | 2014-03-17 | 2018-12-25 | 纽约市哥伦比亚大学理事会 | 用音节上的多项式表示音高轮廓的数据库及韵律产生方法 |
CN105023570B (zh) * | 2014-04-30 | 2018-11-27 | 科大讯飞股份有限公司 | 一种实现声音转换的方法及系统 |
CN105023570A (zh) * | 2014-04-30 | 2015-11-04 | 安徽科大讯飞信息科技股份有限公司 | 一种实现声音转换的方法及系统 |
CN105390138A (zh) * | 2014-08-26 | 2016-03-09 | 霍尼韦尔国际公司 | 用于使用语音识别解释剪短的语音的方法和装置 |
CN104637482A (zh) * | 2015-01-19 | 2015-05-20 | 孔繁泽 | 一种语音识别方法、装置、系统以及语言交换系统 |
CN104637482B (zh) * | 2015-01-19 | 2015-12-09 | 孔繁泽 | 一种语音识别方法、装置、系统以及语言交换系统 |
WO2016172871A1 (zh) * | 2015-04-29 | 2016-11-03 | 华侃如 | 基于循环神经网络的语音合成方法 |
CN105989849B (zh) * | 2015-06-03 | 2019-12-03 | 乐融致新电子科技(天津)有限公司 | 一种语音增强方法、语音识别方法、聚类方法及装置 |
CN105989849A (zh) * | 2015-06-03 | 2016-10-05 | 乐视致新电子科技(天津)有限公司 | 一种语音增强方法、语音识别方法、聚类方法及装置 |
CN106887231A (zh) * | 2015-12-16 | 2017-06-23 | 芋头科技(杭州)有限公司 | 一种识别模型更新方法及系统以及智能终端 |
CN106981289A (zh) * | 2016-01-14 | 2017-07-25 | 芋头科技(杭州)有限公司 | 一种识别模型训练方法及系统以及智能终端 |
US10891944B2 (en) | 2016-06-30 | 2021-01-12 | Alibaba Group Holding Limited | Adaptive and compensatory speech recognition methods and devices |
CN107564513B (zh) * | 2016-06-30 | 2020-09-08 | 阿里巴巴集团控股有限公司 | 语音识别方法及装置 |
CN107564513A (zh) * | 2016-06-30 | 2018-01-09 | 阿里巴巴集团控股有限公司 | 语音识别方法及装置 |
CN108899050A (zh) * | 2018-06-14 | 2018-11-27 | 南京云思创智信息科技有限公司 | 基于多模态情绪识别系统的语音信号分析子系统 |
CN108877801B (zh) * | 2018-06-14 | 2020-10-02 | 南京云思创智信息科技有限公司 | 基于多模态情绪识别系统的多轮对话语义理解子系统 |
CN108877801A (zh) * | 2018-06-14 | 2018-11-23 | 南京云思创智信息科技有限公司 | 基于多模态情绪识别系统的多轮对话语义理解子系统 |
CN109616131A (zh) * | 2018-11-12 | 2019-04-12 | 南京南大电子智慧型服务机器人研究院有限公司 | 一种数字实时语音变音方法 |
CN109616131B (zh) * | 2018-11-12 | 2023-07-07 | 南京南大电子智慧型服务机器人研究院有限公司 | 一种数字实时语音变音方法 |
CN109545190A (zh) * | 2018-12-29 | 2019-03-29 | 联动优势科技有限公司 | 一种基于关键词的语音识别方法 |
CN109817196B (zh) * | 2019-01-11 | 2021-06-08 | 安克创新科技股份有限公司 | 一种噪音消除方法、装置、系统、设备及存储介质 |
CN109817196A (zh) * | 2019-01-11 | 2019-05-28 | 安克创新科技股份有限公司 | 一种噪音消除方法、装置、系统、设备及存储介质 |
CN109754782B (zh) * | 2019-01-28 | 2020-10-09 | 武汉恩特拉信息技术有限公司 | 一种辨别机器语音和自然语音的方法及装置 |
CN109754782A (zh) * | 2019-01-28 | 2019-05-14 | 武汉恩特拉信息技术有限公司 | 一种辨别机器语音和自然语音的方法及装置 |
US11200328B2 (en) | 2019-10-17 | 2021-12-14 | The Toronto-Dominion Bank | Homomorphic encryption of communications involving voice-enabled devices in a distributed computing environment |
US12067130B2 (en) | 2019-10-17 | 2024-08-20 | The Toronto-Dominion Bank | Homomorphic encryption of communications involving voice-enabled devices in a distributed computing environment |
CN112951200A (zh) * | 2021-01-28 | 2021-06-11 | 北京达佳互联信息技术有限公司 | 语音合成模型的训练方法、装置、计算机设备及存储介质 |
CN112951200B (zh) * | 2021-01-28 | 2024-03-12 | 北京达佳互联信息技术有限公司 | 语音合成模型的训练方法、装置、计算机设备及存储介质 |
CN113889083A (zh) * | 2021-11-03 | 2022-01-04 | 广州博冠信息科技有限公司 | 语音识别方法及装置、存储介质、电子设备 |
Also Published As
Publication number | Publication date |
---|---|
CN101510424B (zh) | 2012-07-04 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN101510424A (zh) | 基于语音基元的语音编码与合成方法及系统 | |
Wang et al. | TSTNN: Two-stage transformer based neural network for speech enhancement in the time domain | |
CN1327405C (zh) | 分布式语音识别系统中语音识别的方法和设备 | |
CN103035238B (zh) | 音频数据的编码方法及解码方法 | |
RU2366007C2 (ru) | Способ и устройство для восстановления речи в системе распределенного распознавания речи | |
US20150262587A1 (en) | Pitch Synchronous Speech Coding Based on Timbre Vectors | |
JPH09507105A (ja) | 分散音声認識システム | |
CN113724718B (zh) | 目标音频的输出方法及装置、系统 | |
US7171359B1 (en) | Speech recognition over lossy networks with rejection threshold | |
CN112767954A (zh) | 音频编解码方法、装置、介质及电子设备 | |
CN101206860A (zh) | 一种可分层音频编解码方法及装置 | |
US10978091B2 (en) | System and methods for suppression by selecting wavelets for feature compression in distributed speech recognition | |
CN113744715A (zh) | 声码器语音合成方法、装置、计算机设备及存储介质 | |
CN1049062C (zh) | 转换语音的方法 | |
CN106373583A (zh) | 基于理想软阈值掩模irm的多音频对象编、解码方法 | |
CN102314878A (zh) | 一种音素自动切分方法 | |
CN102376306A (zh) | 语音帧等级的获取方法及装置 | |
CN102314873A (zh) | 一种语音基元的编码与合成系统 | |
CN103456307B (zh) | 音频解码器中帧差错隐藏的谱代替方法及系统 | |
CN1545694A (zh) | 基于客户机-服务器的分布式语音识别系统 | |
CN102314880A (zh) | 一种语音基元的编码与合成方法 | |
CN103474067B (zh) | 语音信号传输方法及系统 | |
CN114360571A (zh) | 基于参考的语音增强方法 | |
CN101740030B (zh) | 语音信号的发送及接收方法、及其装置 | |
CN102314879A (zh) | 一种语音基元的解码方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
C14 | Grant of patent or utility model | ||
GR01 | Patent grant |