CN102982809A - 一种说话人声音转换方法 - Google Patents
一种说话人声音转换方法 Download PDFInfo
- Publication number
- CN102982809A CN102982809A CN2012105286294A CN201210528629A CN102982809A CN 102982809 A CN102982809 A CN 102982809A CN 2012105286294 A CN2012105286294 A CN 2012105286294A CN 201210528629 A CN201210528629 A CN 201210528629A CN 102982809 A CN102982809 A CN 102982809A
- Authority
- CN
- China
- Prior art keywords
- speaker
- characteristic
- voice signal
- fundamental frequency
- content
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Landscapes
- Electrically Operated Instructional Devices (AREA)
Abstract
本发明公开了一种说话人声音转换方法,包括训练阶段和转换阶段,训练阶段包括:从源说话人和目标说话人的训练语音信号中分别提取基频特征、说话人特征和内容特征;根据所述基频特征构建基频转换函数;根据所述说话人特征构建说话人转换函数。转换阶段包括:从源说话人的待转换语音信号中提取基频特征和频谱特征;使用训练阶段得到的基频转换函数和说话人转换函数对从所述待转换语音信号中提取出的基频特征和说话人特征进行转换,得到转换后的基频特征和说话人特征;根据所得到的转换后的基频特征、说话人特征和待转换语音信号中的内容特征合成目标说话人的语音。本发明易于实现且转换后的音质和相似度较高。
Description
技术领域
本发明属于信号处理技术领域,具体涉及在不改变语音信号中内容信息的前提下,将一个说话人的语音信号通过转换处理,改变为能够被感知为另一个说话人的语音信号,特别是一种将语音信号中的说话人信息和内容信息进行分离的说话人声音转换方法。
背景技术
在如今的信息时代,人机交互一直是计算机领域的研究热点,高效智能的人机交互环境已经成为了当前信息技术的应用和发展的迫切需求。众所周知,语音是人类交流的最重要、最便捷的途径之一。语音交互将是人际交互中最为“友好”的。基于语音识别、语音合成及自然语言理解的人机语音对话技术是世界公认的一个难度很大,极富挑战性的高技术领域,但是其应用前景十分光明。
作为人机交互的核心技术之一,语音合成近年来在技术和应用方面都取得了长足进展。目前,基于大语料库的合成系统合成的语音在音质和自然度方面都取得了不错的效果,因此大家对语音合成系统提出了更多的需求——多样化的语音合成,包括多个发音人、多种发音风格、多种情感以及多语种等。而现有的语音合成系统大多是单一化的,一个合成系统一般只包括一到两个说话人,采用朗读或者新闻播报风格,而且针对某个特定的语种。这种单一化的合成语音大大限制了语音合成系统的在实际中的应用,包括教育、娱乐和玩具等。为此,多样化语音合成方面的研究逐渐成为近期语音合成研究领域的主流方向之一。
实现一个多说话人、多种发音风格、多种情感的语音合成系统,最直接的方法就是录制多个人、多种风格的音库,并分别构建各个发音人、各个风格的个性化语音合成系统。由于针对每个发音人、每种风格、每种情感制作一个特定的语音库的工作量过大,因此这种方法在实际中并不可行。在这一背景下,说话人声音转换技术被提出。说话人声音转换技术就是试图把一个人(源说话人)说的话(的语音)进行转换(对基频、时长、谱参数等包含说话人特征信息的参数进行调整),使它听起来好像另一个人(目标说话人)说出来的一样。与此同时,保持源说话人表达的意思不变。说话人声音转换技术通过录制少量的说话人的语音信号进行训练,调整源说话人的语音得到目标说话人的合成语音,从而快速实现个性化语音合成系统。
实现一个说话人声音转换系统,最主要的挑战在于转换语音的相似度和音质。作为当前的一种主流的说话人声音转换方法——基于联合空间高斯混合模型的说话人声音转换方法,由于使用了统计建模的框架,相对来说具有很好的鲁棒性和推广性,但是该方法只是一个典型的机器学习中的特征映射的方法,并没有利用语音信号特有的一些特性(说话人信息和内容信息共存),而且统计建模带来了诸多问题,如对数据量的依赖,建模精度不够,统计模型对声学参数原有的信息的破坏,均导致转换语音的效果急剧下降。而另一种主流的语音合成技术,基于共振峰的频谱弯折方法,则利用到了语音信号中的说话人共振峰结构这一主要反映说话人信息的特征,在转换时尽可能的保留语音信号中的细节成分,保证了转换语音的音质,但是由于共振峰的提取和建模很难,就使得这一类方法需要很多人工的干预,而且鲁棒性较差。
总的来说,传统的说话人语音转换方法,由于其对语音信号中特定说话人的声音信息缺乏有效表达及有效建模,对建模数据要求高,所构建的转换方法往往包含了对语音信号内容的转换,因此转换后的语音音质和相似度目前不能达到令人满意的程度。
发明内容
(一)要解决的技术问题
本发明所要解决的技术问题是现有的说话人语音转换方法的语音音质较差和相似度不高的问题。
(二)技术方案
本发明提出一种说话人声音转换方法,用于把源说话人所说的话的语音信号进行转换,使转换后的语音听起来是不同于源说话人的目标说话人所说的,其特征在于,该方法包括训练阶段和转换阶段,其中,
所述训练阶段包括:
步骤A1、从源说话人和目标说话人的训练语音信号中分别提取基频特征和频谱特征,所述频谱特征包括说话人特征和内容特征;
步骤A2、根据源说话人和目标说话人的训练语音信号的基频特征,构建从源说话人的语音到目标说话人的语音的基频转换函数;
步骤A3、根据步骤A1提取的源说话人和目标说话人的说话人特征构建说话人转换函数;
所述转换阶段包括:
步骤B1、从源说话人的待转换语音信号中提取基频特征和频谱特征,所述频谱特征包括说话人特征和内容特征;
步骤B2、分别使用训练阶段得到的基频转换函数和说话人转换函数,对从步骤B1中从所述待转换语音信号中提取出的基频特征和说话人特征进行转换,得到转换后的基频特征和说话人特征;
步骤B3、根据步骤B2得到的转换后的基频特征和说话人特征,以及步骤B1提取的待转换语音信号中的内容特征,合成目标说话人的语音。
根据本发明的一种具体实施方式,所述步骤A1和步骤B1的提取语音信号的基频特征和频谱特征的方法包括:
步骤a1、基于语音信号的源-滤波器结构,将语音信号以20~30ms进行分段,每一段作为一帧,并对每一帧的语音信号提取基频和频谱参数;
步骤a2、使用一个神经网络来分离所述频谱参数中的说话人特征和内容特征,该神经网络结构采用上下对称的共2K-1层多层(K为自然数)网络结构,包括:最下层为输入层,从该层输入待分离的声学特征;最上层为输出层,该层输出重构出的声学特征;中间2K-3个隐层,每层若干个节点,模拟神经单元的处理过程。从输入层到从下至上的第K个隐层为编码网络,用于从输入的语音声学特征中提取出高层的信息;从下至上的第K个隐层为编码层;编码层的网络节点分为两部分,一部分与说话人相关,另一部分与内容相关,它们的输出分别对应说话人特征和内容特征;从下至上的第K个隐层以上的隐层为解码网络,用于从高层的说话人特征和内容特征中重建出声学频谱参数。
根据本发明的一种具体实施方式,步骤a2包括在一语音信号数据库上对所述神经网络进行训练,以使其具备从声学特征中提取和分离说话人特征和内容特征的能力,所述对所述神经网络进行训练的步骤包括:
步骤b1、通过预训练来初始化所述神经网络的网络权值;
步骤b2、对所述神经网络的编码层的每个节点的输出特征,采用一个区分性准则来统计其在不同说话人之间和不同内容之间的区分性,将不同说话人间区分性大而不同内容之间区分性小的节点作为说话人相关节点,其余的节点作为内容相关节点;
步骤b3、设计特定的区分性目标函数来精细调整该神经网络的权值,使该神经网络具备从声学特征中分离说话人信息和内容信息的能力。
根据本发明的一种具体实施方式,所述的语音信号数据库是通过下列步骤制作的:
步骤c1、建立一个语料库,使该语料库中包括多个句子;
步骤c2、录制多个说话人朗读所述语料库中的句子的语音信号,构建语音信号数据库,并对该语音信号数据库中的语音信号进行预处理,以去除语音信号中的不正常部分;
步骤c3、使用隐马尔科夫模型来对进行预处理的杨这语音信号数据库中的语音信号行切分,切分后的每一段作为一个帧,由得到各语音信号的帧一级的说话人标注信息和内容标注信息;
步骤c4、对所述语音数据库的各语音信号进行随机组合,构造神经网络的训练数据。
(三)有益效果
本发明的说话人声音转换方法具有以下优点:
1、本发明首次提出了使用深层神经网络来实现语音信号中说话人信息和内容信息的分离,以满足不同语音信号处理任务的需求,如语音识别、说话人识别与转换。
2、本发明在进行说话人声音转换时,仅考虑说话人的因素,排除了内容因素的干扰,使得说话人声音转换更易于实现,转换后的音质和相似度得以大幅度提高。
3、本发明采用的分离器只需要训练一次,训练好后能够对任意说话人语音提取说话人特征和内容特征,一次训练多次使用,无需重复训练模型。
附图说明
图1是本发明的的说话人声音转换方法的流程图;
图2是本发明的特征提取步骤的框图;
图3是本发明的用于特征分离的神经网络结构示意图;
图4是本发明的神经网络训练流程图;
图5是本发明中数据库制作的流程图;
图6是本发明中倒谱特征在不同说话人和不同内容之间的区分性的示意图;
图7是本发明中提取出的说话人特征和内容特征在不同说话人和不同内容之间的区分性的示意图。
具体实施方式
为使本发明的目的、技术方案和优点更加清楚明白,以下结合具体实施例,并参照附图,对本发明作进一步的详细说明。
从生理学的角度来讲,已有学者的工作证实,人脑在感知语音信号时,对说话人信息的感知和对说话内容的感知分别是在大脑皮层的不同区域完成的。这说明人脑在高层对说话人和内容信息做了分解,语音信号中的信息是可分离的,说话人信息和内容信息的分离对语音信号处理的意义很重大,分离出来的信息可分别用于说话人识别,语音识别以及其他的一些针对性的应用。
本发明从说话人声音转换的本质出发,即保持说话人所说的话的内容不变,而仅改变说该句话的说话人的信息。基于这一考虑,对语音信号中的信息进行分离,得到说话人特征和内容特征,以便对说话人的成分进行操作。本发明中所说的“说话人特征”指的是反应说话人特性、区别不同说话人的特征,“内容特征”指的是反应语音信号所要表达的意思的的特征。
对此,本发明使用一种基于深层神经网络的技术,在高层将语音信号的声学特征分解为说话人特征和内容特征,以而使说话人声音转换得以更完美和简单的实现,达到音质和相似度大幅提升的转换语音信号。
图1是本发明的的说话人声音转换方法的流程图。如图所示,本发明的方法总体上包含两个阶段:训练阶段和转换阶段。下面依次介绍:
(一)训练阶段
训练阶段主要包括三个步骤:
步骤A1:特征提取。
该步骤从源说话人和目标说话人的训练语音信号中分别提取特征,所述特征包括基频特征和频谱特征,频谱特征在本发明中分为说话人特征和内容特征。
步骤A2:基频转换函数训练。
该步骤根据源说话人和目标说话人的训练语音信号的基频特征,构建从源说话人的语音到目标说话人的语音的基频转换函数。
根据一种具体实施方式,该步骤统计源说话人和目标说话人的训练语音信号的基频特征在对数域分布的均值和方差,根据所统计的均值和方差构建从源说话人的语音到目标说话人的语音的基频转换函数。
由于每个说话人的基频特征参数在对数域呈高斯分布,因此对于基频转换,本发明中优选为仅使用对数域的简单线性变换进行。
步骤A3:频谱转换函数训练。
该步骤根据从源说话人和目标说话人的训练语音信号中提取的频谱特征中的说话人特征构建说话人转换函数。
前述说话人转换的要求保持说话内容不变而只改变说话人信息。因此,本发明只需要训练说话人特征的转换函数(说话人转换函数)即可。
由于在录制源说话人和目标说话人的语音信号时,无法做到不同说话人进行同一句话的录音时保持完全相同的时长,因此需要一些规整手段来将不同时长的句子规整到相同的时长以便进行有监督的特征转换学习(特征对齐),本发明采用动态时间规整(dynamic time warping)算法来进行时长规整,说话人特征转换的建模可以使用线性回归模型或者联合空间高斯混合模型等方法来实现。
(二)转换阶段
转换阶段包括三个步骤:
步骤B1:特征提取。
与训练阶段相仿,该步骤从源说话人的待转换语音信号中提取特征,所述特征包括基频特征和频谱特征,频谱特征分为说话人特征和内容特征。
步骤B2:特征转换。
分别使用训练阶段得到的基频转换函数和说话人转换函数,对从步骤B1中从所述待转换语音信号中提取出的基频特征和说话人特征进行转换,得到转换后的基频特征和说话人特征。
而对于说话人特征的转换,假设有源和目标说话人对应时间对齐的说话人特征X={x1,x2,...xT}和Y={y1,y2,...yT}作为训练数据。本发明采用两种方案。一种方案是使用线性回归模型F(xt)=Axt+b作为频谱转换函数,其中的参数可有下式计算得到:
[A,b]=YXT(XXT)-1
另外一种方案,基于联合空间高斯混合模型的方法,需要使用联合特征Z=[XT,YT]T来训练一个高斯混合模型,他以如下形式来描述联合特征空间的分布:
P(z)=∑mwmN(z;μm,∑m),
其中
从中,导出转换函数:
步骤B3:语音合成。
该步骤根据步骤B2得到的转换后的基频特征和说话人特征,以及步骤B1提取的待转换语音信号中的内容特征,合成目标说话人的语音。
本发明使用基于源-滤波器结构的合成器,需要输入激励(即基频)和声道响应(频谱参数)来生成待转换的语音。因此首先需要从转换的说话人特征和待转换的说话人语音信号的内容特征中重建出转换的说话人频谱参数(频谱参数重建过程见下文所述),进而通过合成器来生成转换的语音。本发明采用STRAIGHT分析合成器来进行语音生成。
(三)特征提取
以上对本发明的方法进行了整体性的介绍,下面对于所述方法中采用的特征提取步骤进行详细的说明。
如前所述,本发明所述特征提取包括基频特征、说话人特征和内容特征的提取。本发明中基频特征提取采用传统的基频提取方法。说话人特征和内容特征的特征提取方法是本发明核心所在。
3.1基本步骤
图2是本发明的特征提取步骤的框图。如图2所示,特征提取步骤具体分为两步骤:
步骤a1:声学特征提取。
基于语音信号的源-滤波器结构,考虑到语音信号的短时平稳性和长时非平稳性,将语音信号以20-30ms进行分段,每一段本发明称作一帧。对每一帧语音信号,使用现有的语音分析算法(如STRAIGHT等)从语音信号中提取基频和频谱参数(如线谱对、Mel倒谱等)。
步骤a2:说话人特征和内容特征提取。
考虑到说话人之间的差异主要体现在声道结构上,在声学特征上,即主要反映在频谱参数中。因此,本发明主要考虑从频谱特征分离出说话人相关特征和内容相关特征。另外,本发明考虑到说话人特征是一种超音段长时的特征,为有效提取语音信号中的说话人相关特征,使其与内容相关特征更好地分离,本发明将连续多帧的特征拼接成一个称之为超音段特征输入到特征分离器中。具体的特征分离方法如下:
3.2特征分离算法
本发明使用一个深层的神经网络来分离声学频谱参数中的说话人特征和内容特征。图3是本发明的用于特征分离的神经网络结构示意图。如图3所示,该神经网络结构采用上下对称的共2K-1层多层(K为自然数)网络结构,包括:最下层为输入层,从该层输入待分离的声学特征;最上层为输出层,该层输出重构出的声学特征;中间2K-3个隐层,每层包括若干个节点,模拟神经单元的处理过程。
从输入层到从下至上的第K个隐层为编码网络(或称编码器),用于从输入的语音声学特征中提取出高层的信息,从下至上的第K个隐层为编码层;编码层的网络节点分为两部分,一部分与说话人相关,另一部分与内容相关,它们的输出分别对应说话人特征和内容特征。从下至上的第K个隐层以上的隐层为解码网络(或称解码器),它的功能与编码网络相反,用于从高层的说话人特征和内容特征中重建出声学频谱参数。
本发明采用的图3所示的深层神经网络是对人的神经系统处理语音信号的一个模拟,需要对其进行训练,从而使其具有所需要的能够从声学特征中实现提取和分离说话人特征和内容特征这一特定的能力。图3所示深层神经网络的训练是在本发明提出的数据库制作方法所设计的语音信号数据库上进行,本发明提出的数据库制作方法见本发明数据库制作部分。
图4是本发明中神经网络训练的具体流程图。训练过程分为三步骤:
步骤b1:预训练。
由于深层神经网络的优化比较困难,在训练之前需要通过预训练来初始化网络权值。本发明采取一种无监督的学习模式,使用贪婪算法来逐层训练网络,快速的得到模型的初始参数。在每一层的训练中,可以使用消除噪声干扰的自动编码器(De-noising auto-encoder)来初始化网络权值,即在输入特征上加上一定的噪声掩盖,使得神经网络的训练能够更加鲁棒,并且防止过训练。具体的,在输入层,输入特征服从高斯分布,则在输入的各维上加入适量的高斯噪声,并采用最小均方误差准则来训练。而在第一层以上各层,输入特征服从二值分布,因此以一定的概率,将输入特征的某些维置零,并使用最小交叉熵(cross-entropy)准则来训练。经过预训练得到一个K层叠加的自动编码器后,将其向上翻转,便得到了上下对称的自动编码器结构。
步骤b2:编码层调整。
经过预训练之后的神经网络,已经具备了一定的高层信息提取能力,在编码层,某些节点能反映出较强的说话人区分能力,另外一些节点则能反映较强的内容区分能力。这一步将使用一些客观的准则来将这些节点挑选出来,其输出分别作为对应的特征。这里可以使用一些区分性准则,如Fisher′s ratio,来挑选。具体的,在所述语音信号数据库的训练集上,对编码层的每个节点的输出特征,均用该准则来统计其在不同说话人之间和不同内容之间的区分性,将不同说话人间区分性大而不同内容之间区分性小的节点作为说话人相关节点,其余的节点作为内容相关节点。
步骤b3:精细调整。
本发明需要从输入的声学频谱参数中分离出说话人相关和内容相关的特征,并能将其应用到说话人声音转换中去。对此,要设计特定的区分性目标函数来训练该网络,使其具备本发明所期望的这种能力。要达到这种要求,需要在输入训练样本中引入对比竞争的手段。在如图3所示的网络结构中,在输入层,每次同时并行输入两个样本x1和x2,他们分别在编码输出层生成说话人特征cs1、cs2和内容特征cc1、cc2,然后通过解码网络,重建出输入的声学特征和因此,训练网络的目标函数中包含如下的三部分:
重建误差:一方面,由于说话人声音转换应用的需要,要从高层特征中重建恢复出声学频谱参数,解码网络需要具有很好的恢复重建的能力,该能力将会直接影响合成语音的质量。因此,在训练目标函数中需要对重建误差加以限制。另一个方面,加入重建误差的限制也是为了保证编码输出的说话人特征和内容特征中信息的完整性。本发明中采用如下形式的误差形式:
说话人特征代价:为了使说话人特征对说话人具有很强的区分性,而对内容不具有区分性,可以设计这样一种准则,使相同说话人之间的说话人特征误差尽量小,而不同说话人之间的误差尽量大,这种准则可以表示为下式:
Lsc=δs*Es+(1-δs)*exp(-λsEs)
其中,Es=|cs1-cs2|2,δs是输入的两个样本的说话人标注,δs=1表示两个输入它们来自同一个说话人,而δs=0则表示来自不同的两个说话人。
内容特征代价:与说话人特征误差类似,可以构造内容特征的区分性代价函数:
Lcc=δc*Es+(1-δc)*exp(-λcEc)
综合上述三种代价,可以得到最终用于的精细调整的目标函数:
Lcc=αLr+βLsc+ζLcc
α、β和ζ调整这三种代价比重的权值,神经网络的训练目标是调整网络权值使得该目标函数尽量小,训练时本发明使用误差反向传播算法,利用带冲量的梯度下降算法来更新网络权值。
(四)说话人语音信号库的制作
本发明中所使用的神经网络需要大量的训练数据来进行,需要包含很多的说话人,每个说话人也需要录制充足内容的语料。
所要特别指出的是,神经网络所需要的大量训练数据,并不是图1中所示训练过程的源说话人或目标说话人数据。实际应用中,获得图1中所示训练过程的源说话人或目标说话人的大量数据不切实际或要求过高,但获得本处所述神经网络所需要的大量训练数据是可行的,符合实际要求。
图5是本发明中数据库制作的流程图。分为四个步骤:
步骤c1:建立一个语料库,使该语料库中包括多个句子。
考虑到要设计一种鲁棒的分离网络,需要其能处理所有的人以及所有的内容,本发明中设计一个音素均衡的语料库,而且句子数不能太多,通常在100句以内,以便采集大量的说话人数据。所谓音素均衡是指语料中包含所有的音素,而且各音素的数量相对均衡。
步骤c2:录制多个说话人朗读所述语料库中的句子的语音信号,构建语音信号数据库,并对该语音信号数据库中的语音信号进行预处理,以去除语音信号中的不正常部分。
考虑到要使网络具有区分说话人的能力,需要录制大量说话人的数据来训练网络。在录音阶段,由于成本等方面的原因,无法找到如此多的播音员来录制音库,只能采集业余人员的录音,这就使得录制的语音质量参差不齐,因此,录制完成后,需要对录制的语音做一些预处理,如能量规整、信道均衡、喷麦现象的处理等等,保证训练语料的质量。
步骤c3:使用隐马尔科夫模型来对进行预处理的杨这语音信号数据库中的语音信号行切分,切分后的每一段作为一个帧,由得到各语音信号的帧一级的说话人标注信息和内容标注信息。
从上文可知,在神经网络训练的精细调整阶段,是有监督的学习过程,需要知道输入每帧训练数据的说话人标注信息和内容标注信息。因此,需要对语音信号数据库中的语音信号做帧一级的标注,即进行音段的切分。具体的,可以采用一个现有的用作语音合成的上下文相关的隐马尔可夫模型来实现音段切分。在切分之前,先用每个说话人的录音数据使用最大似然线性回归算法将该模型自适应到该说话人的声学空间,再使用自适应得到的模型对该说话人的录音数据利用维特比算法进行解码,得到模型各状态的边界信息。
步骤c4:对所述语音数据库的各语音信号进行随机组合,构造神经网络的训练数据。
根据上文描述,神经网络的训练数据有四类:相同说话人相同内容、相同说话人不同内容、不同说话人相同内容和不同说话人不同内容。由于有很多的说话人特征和内容特征属性,在训练阶段,本发明在训练数据中随机挑选组合,输入到网络进行训练。
(五)具体实施例
根据上文所述方法,作为本发明实施方式举例,本发明搭建了一个说话人声音转换系统。首先,本发明设计了包含100句话的音素平衡的语料,募集了81个说话人(其中包含40个男性和41个女性说话人)来录音,经过处理后形成最终的训练语料库。录音的语音文件是单声道、16kHz采样率的。在这81个说话人的数据中,我们随机挑选60人(30个男性、30个女性)的数据作为训练神经网络的训练集,另外10人(5个男性和5个女性)的数据作为训练神经网络训练的验证集,余下的11人的数据作为测试集,测试说话人声音转换的效果。在提取声学特征时,我们采用25ms的汉明窗对波形信号进行分帧处理,并以5ms的帧移来移动短时窗,每帧提取一个基频和一组24维的Mel倒谱参数作为声学特征。
在训练用于特征分离的神经网络阶段,网络的输入向量为当前帧与其前后各5帧共11帧拼成的超音段特征,共264维,由于输出只需要重建出输入的当前帧,因此,输出层为24维。另外,网络包含7个隐层,其中节点数分别为500、400、300、200、300、400、500,在中间的那一层,我们使前100个节点的输出为说话人特征,剩下的100个节点的输出为内容特征。在预训练阶段,我们采用4个层叠的自动编码器的形式来初始化网络权值,节点数分别为:264-500、500-400、400-300和300-200,自底向上,每一个自动编码器的输出作为下一个自动编码器的输入,通过无监督学习的形式初始化网络权值,最后将网络权值翻转,得到整个网络的初始化权值,需要注意的是,第一层翻转到整个网络的最上面一层的时候,由于输出只有24维,只需要将输入层当前帧对应的权值翻转上去即可。另外,在中间层翻转之前,需要计算每个节点输出在不同说话人之间和不同内容之间的区分性(上文中提到的Fisher’s ratio),并以此来对节点和网络权值进行重排。预训练之后,按照上文所述的方法进行精细调整,在这个过程中,需要在验证集上对目标函数的权值进行调整,得到最优值。
训练好特征分离器之后,便可以进行搭建说话人声音转换系统了,我们在测试集上任意挑选两个说话人来,选择其中50句话作为训练数据,按上文提取需要的特征,训练基频、说话人特征的转换函数(本实施方式举例中使用直接的线性回归模型),剩下的50句话作为测试数据来验证说话人声音转换的效果。
我们使用Fisher’s ratio来度量提取出的不同特征在不同说话人之间和不同内容之间的区分性。Fisher’s ratio度量的是特征类内距离和类间距离的比值,该比值越大,说明特征在此种分类方法下更加具有区分性。图6和图7分别是Mel倒谱系数和分离出的特征在不同说话人(实线)和不同内容(虚线)之间的区分性。可见,输入的声学特征中,除了低维在内容上显示较强的区分性外,其余维并没有很强的区分性。而提取出的特征(前100维为说话人特征,剩下100维为内容特征)经过训练,对不同的分类体现出所期望的区分性。而在说话人转换实验上,直接用目标说话人的说话人特征加上源说话人的内容特征合成出的语音,倒谱误差为4.39dB,而用线性变换过的源说话人的说话人特征和其内容特征合成的语音倒谱误差为5.64dB,从主观听感上已经逼近目标说话人的语音。
以上所述的具体实施例,对本发明的目的、技术方案和有益效果进行了进一步详细说明,应理解的是,以上所述仅为本发明的具体实施例而已,并不用于限制本发明,凡在本发明的精神和原则之内,所做的任何修改、等同替换、改进等,均应包含在本发明的保护范围之内。
Claims (11)
1.一种说话人声音转换方法,用于把源说话人所说的话的语音信号进行转换,使转换后的语音听起来是不同于源说话人的目标说话人所说的,其特征在于,该方法包括训练阶段和转换阶段,其中,
所述训练阶段包括:
步骤A1、从源说话人和目标说话人的训练语音信号中分别提取基频特征和频谱特征,所述频谱特征包括说话人特征和内容特征;
步骤A2、根据源说话人和目标说话人的训练语音信号的基频特征,构建从源说话人的语音到目标说话人的语音的基频转换函数;
步骤A3、根据步骤A1提取的源说话人和目标说话人的说话人特征构建说话人转换函数;
所述转换阶段包括:
步骤B1、从源说话人的待转换语音信号中提取基频特征和频谱特征,所述频谱特征包括说话人特征和内容特征;
步骤B2、分别使用训练阶段得到的基频转换函数和说话人转换函数,对从步骤B1中从所述待转换语音信号中提取出的基频特征和说话人特征进行转换,得到转换后的基频特征和说话人特征;
步骤B3、根据步骤B2得到的转换后的基频特征和说话人特征,以及步骤B1提取的待转换语音信号中的内容特征,合成目标说话人的语音。
2.如权利要求1所述的说话人声音转换方法,其特征在于,所述步骤A2统计源说话人和目标说话人的训练语音信号的基频特征在对数域分布的均值和方差,根据所统计的均值和方差构建从源说话人的语音到目标说话人的语音的基频转换函数。
3.如权利要求2所述的说话人声音转换方法,其特征在于,所述基频转换函数为线性变换函数。
4.如权利要求1所述的说话人声音转换方法,其特征在于,所述步骤A1和步骤B1的提取语音信号的基频特征和频谱特征的方法包括:
步骤a1、基于语音信号的源-滤波器结构,将语音信号以20~30ms进行分段,每一段作为一帧,并对每一帧的语音信号提取基频和频谱参数;
步骤a2、使用一个神经网络来分离所述频谱参数中的说话人特征和内容特征,该神经网络结构采用上下对称的共2K-1层多层(K为自然数)网络结构,包括:最下层为输入层,从该层输入待分离的声学特征;最上层为输出层,该层输出重构出的声学特征;中间2K-3个隐层,每层若干个节点,模拟神经单元的处理过程。从输入层到从下至上的第K个隐层为编码网络,用于从输入的语音声学特征中提取出高层的信息;从下至上的第K个隐层为编码层;编码层的网络节点分为两部分,一部分与说话人相关,另一部分与内容相关,它们的输出分别对应说话人特征和内容特征;从下至上的第K个隐层以上的隐层为解码网络,用于从高层的说话人特征和内容特征中重建出声学频谱参数。
5.如权利要求4所述的说话人声音转换方法,其特征在于,所述步骤a2包括在一语音信号数据库上对所述神经网络进行训练,以使其具备从声学特征中提取和分离说话人特征和内容特征的能力。
6.如权利要求5所述的说话人声音转换方法,其特征在于,所述对所述神经网络进行训练的步骤包括:
步骤b1、通过预训练来初始化所述神经网络的网络权值;
步骤b2、对所述神经网络的编码层的每个节点的输出特征,采用一个区分性准则来统计其在不同说话人之间和不同内容之间的区分性,将不同说话人间区分性大而不同内容之间区分性小的节点作为说话人相关节点,其余的节点作为内容相关节点;
步骤b3、设计特定的区分性目标函数来精细调整该神经网络的权值,使该神经网络具备从声学特征中分离说话人信息和内容信息的能力。
7.如权利要求5所述的说话人声音转换方法,其特征在于,所述步骤b1采取无监督的学习模式,使用贪婪算法来逐层训练该神经网络;
8.如权利要求7所述的说话人声音转换方法,其特征在于,所述步骤b1包括:
在输入层,输入特征服从高斯分布,则在输入的各维上加入适量的高斯噪声,并采用最小均方误差准则来训练;在第一层以上各层,输入特征服从二值分布,因此以一定的概率,将输入特征的某些维置零,并使用最小交叉熵准则来训练;经过预训练得到一个K层叠加的自动编码器后,将其向上翻转,便得到了上下对称的自动编码器结构。
9.如权利要求6所述的说话人声音转换方法,其特征在于,所述步骤b2采用Fisher′s ratio准则作为区分性准则。
10.如权利要求9所述的说话人声音转换方法,其特征在于,所述步骤b3包括:
设计具有对比竞争机制的区分性目标函数,使用误差后向传播算法来精细调整所述神经网络的网络权值,使该神经网络具备从声学特征中分离说话人信息和内容信息的能力。
11.如权利要求5所述的说话人声音转换方法,其特征在于,其中所述的语音信号数据库是通过下列步骤制作的:
步骤c1、建立一个语料库,使该语料库中包括多个句子;
步骤c2、录制多个说话人朗读所述语料库中的句子的语音信号,构建语音信号数据库,并对该语音信号数据库中的语音信号进行预处理,以去除语音信号中的不正常部分;
步骤c3、使用隐马尔科夫模型来对进行预处理的杨这语音信号数据库中的语音信号行切分,切分后的每一段作为一个帧,由得到各语音信号的帧一级的说话人标注信息和内容标注信息;
步骤c4、对所述语音数据库的各语音信号进行随机组合,构造神经网络的训练数据。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201210528629.4A CN102982809B (zh) | 2012-12-11 | 2012-12-11 | 一种说话人声音转换方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201210528629.4A CN102982809B (zh) | 2012-12-11 | 2012-12-11 | 一种说话人声音转换方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN102982809A true CN102982809A (zh) | 2013-03-20 |
CN102982809B CN102982809B (zh) | 2014-12-10 |
Family
ID=47856718
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201210528629.4A Active CN102982809B (zh) | 2012-12-11 | 2012-12-11 | 一种说话人声音转换方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN102982809B (zh) |
Cited By (54)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103514883A (zh) * | 2013-09-26 | 2014-01-15 | 华南理工大学 | 一种自适应实现男女声切换方法 |
CN103531205A (zh) * | 2013-10-09 | 2014-01-22 | 常州工学院 | 基于深层神经网络特征映射的非对称语音转换方法 |
CN103886859A (zh) * | 2014-02-14 | 2014-06-25 | 河海大学常州校区 | 基于一对多码书映射的语音转换方法 |
CN104143327A (zh) * | 2013-07-10 | 2014-11-12 | 腾讯科技(深圳)有限公司 | 一种声学模型训练方法和装置 |
CN104392717A (zh) * | 2014-12-08 | 2015-03-04 | 常州工学院 | 一种基于声道谱高斯混合建模的快速语音转换系统及其方法 |
CN104464725A (zh) * | 2014-12-30 | 2015-03-25 | 福建星网视易信息系统有限公司 | 一种唱歌模仿的方法与装置 |
CN105023570A (zh) * | 2014-04-30 | 2015-11-04 | 安徽科大讯飞信息科技股份有限公司 | 一种实现声音转换的方法及系统 |
CN105206257A (zh) * | 2015-10-14 | 2015-12-30 | 科大讯飞股份有限公司 | 一种声音转换方法及装置 |
CN105321526A (zh) * | 2015-09-23 | 2016-02-10 | 联想(北京)有限公司 | 音频处理方法和电子设备 |
CN105390141A (zh) * | 2015-10-14 | 2016-03-09 | 科大讯飞股份有限公司 | 声音转换方法和装置 |
US9508347B2 (en) | 2013-07-10 | 2016-11-29 | Tencent Technology (Shenzhen) Company Limited | Method and device for parallel processing in model training |
CN106228976A (zh) * | 2016-07-22 | 2016-12-14 | 百度在线网络技术(北京)有限公司 | 语音识别方法和装置 |
CN106384587A (zh) * | 2015-07-24 | 2017-02-08 | 科大讯飞股份有限公司 | 一种语音识别方法及系统 |
CN107068157A (zh) * | 2017-02-21 | 2017-08-18 | 中国科学院信息工程研究所 | 一种基于音频载体的信息隐藏方法及系统 |
CN107452369A (zh) * | 2017-09-28 | 2017-12-08 | 百度在线网络技术(北京)有限公司 | 语音合成模型生成方法和装置 |
CN107464554A (zh) * | 2017-09-28 | 2017-12-12 | 百度在线网络技术(北京)有限公司 | 语音合成模型生成方法和装置 |
CN107464569A (zh) * | 2017-07-04 | 2017-12-12 | 清华大学 | 声码器 |
CN107481735A (zh) * | 2017-08-28 | 2017-12-15 | 中国移动通信集团公司 | 一种转换音频发声的方法、服务器及计算机可读存储介质 |
CN107507619A (zh) * | 2017-09-11 | 2017-12-22 | 厦门美图之家科技有限公司 | 语音转换方法、装置、电子设备及可读存储介质 |
CN107545903A (zh) * | 2017-07-19 | 2018-01-05 | 南京邮电大学 | 一种基于深度学习的语音转换方法 |
CN107871497A (zh) * | 2016-09-23 | 2018-04-03 | 北京眼神科技有限公司 | 语音识别方法和装置 |
CN108108357A (zh) * | 2018-01-12 | 2018-06-01 | 京东方科技集团股份有限公司 | 口音转换方法及装置、电子设备 |
WO2018098892A1 (zh) * | 2016-11-29 | 2018-06-07 | 科大讯飞股份有限公司 | 端到端建模方法及系统 |
CN105023574B (zh) * | 2014-04-30 | 2018-06-15 | 科大讯飞股份有限公司 | 一种实现合成语音增强的方法及系统 |
CN108461079A (zh) * | 2018-02-02 | 2018-08-28 | 福州大学 | 一种面向音色转换的歌声合成方法 |
CN108550372A (zh) * | 2018-03-24 | 2018-09-18 | 上海诚唐展览展示有限公司 | 一种将天文射电信号转换为音频的系统 |
CN108847249A (zh) * | 2018-05-30 | 2018-11-20 | 苏州思必驰信息科技有限公司 | 声音转换优化方法和系统 |
CN109147758A (zh) * | 2018-09-12 | 2019-01-04 | 科大讯飞股份有限公司 | 一种说话人声音转换方法及装置 |
CN109326283A (zh) * | 2018-11-23 | 2019-02-12 | 南京邮电大学 | 非平行文本条件下基于文本编码器的多对多语音转换方法 |
CN109377978A (zh) * | 2018-11-12 | 2019-02-22 | 南京邮电大学 | 非平行文本条件下基于i向量的多对多说话人转换方法 |
CN109599091A (zh) * | 2019-01-14 | 2019-04-09 | 南京邮电大学 | 基于STARWGAN-GP和x向量的多对多说话人转换方法 |
CN109616131A (zh) * | 2018-11-12 | 2019-04-12 | 南京南大电子智慧型服务机器人研究院有限公司 | 一种数字实时语音变音方法 |
CN109637551A (zh) * | 2018-12-26 | 2019-04-16 | 出门问问信息科技有限公司 | 语音转换方法、装置、设备及存储介质 |
CN109817198A (zh) * | 2019-03-06 | 2019-05-28 | 广州多益网络股份有限公司 | 用于语音合成的多发音训练方法、语音合成方法与装置 |
CN109935225A (zh) * | 2017-12-15 | 2019-06-25 | 富泰华工业(深圳)有限公司 | 文字信息处理装置及方法、计算机存储介质及移动终端 |
CN110010144A (zh) * | 2019-04-24 | 2019-07-12 | 厦门亿联网络技术股份有限公司 | 语音信号增强方法及装置 |
CN110060690A (zh) * | 2019-04-04 | 2019-07-26 | 南京邮电大学 | 基于STARGAN和ResNet的多对多说话人转换方法 |
CN110060701A (zh) * | 2019-04-04 | 2019-07-26 | 南京邮电大学 | 基于vawgan-ac的多对多语音转换方法 |
CN110459232A (zh) * | 2019-07-24 | 2019-11-15 | 浙江工业大学 | 一种基于循环生成对抗网络的语音转换方法 |
CN110570873A (zh) * | 2019-09-12 | 2019-12-13 | Oppo广东移动通信有限公司 | 声纹唤醒方法、装置、计算机设备以及存储介质 |
CN110600013A (zh) * | 2019-09-12 | 2019-12-20 | 苏州思必驰信息科技有限公司 | 非平行语料声音转换数据增强模型训练方法及装置 |
CN110600012A (zh) * | 2019-08-02 | 2019-12-20 | 特斯联(北京)科技有限公司 | 一种人工智能学习的模糊语音语义识别方法及系统 |
CN111201565A (zh) * | 2017-05-24 | 2020-05-26 | 调节股份有限公司 | 用于声对声转换的系统和方法 |
CN111433847A (zh) * | 2019-12-31 | 2020-07-17 | 深圳市优必选科技股份有限公司 | 语音转换的方法及训练方法、智能装置和存储介质 |
CN111462769A (zh) * | 2020-03-30 | 2020-07-28 | 深圳市声希科技有限公司 | 一种端到端的口音转换方法 |
CN111883149A (zh) * | 2020-07-30 | 2020-11-03 | 四川长虹电器股份有限公司 | 一种带情感和韵律的语音转换方法及装置 |
CN111951810A (zh) * | 2019-05-14 | 2020-11-17 | 国际商业机器公司 | 高质量非并行多对多语音转换 |
CN112309365A (zh) * | 2020-10-21 | 2021-02-02 | 北京大米科技有限公司 | 语音合成模型的训练方法、装置、存储介质以及电子设备 |
CN112382308A (zh) * | 2020-11-02 | 2021-02-19 | 天津大学 | 基于深度学习与简单声学特征的零次语音转换系统和方法 |
CN112735434A (zh) * | 2020-12-09 | 2021-04-30 | 中国人民解放军陆军工程大学 | 一种具有声纹克隆功能的语音通话方法及系统 |
CN113345452A (zh) * | 2021-04-27 | 2021-09-03 | 北京搜狗科技发展有限公司 | 语音转换方法、语音转换模型的训练方法、装置和介质 |
CN113889130A (zh) * | 2021-09-27 | 2022-01-04 | 平安科技(深圳)有限公司 | 一种语音转换方法、装置、设备及介质 |
CN114203154A (zh) * | 2021-12-09 | 2022-03-18 | 北京百度网讯科技有限公司 | 语音风格迁移模型的训练、语音风格迁移方法及装置 |
US11996117B2 (en) | 2020-10-08 | 2024-05-28 | Modulate, Inc. | Multi-stage adaptive system for content moderation |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN1835074A (zh) * | 2006-04-07 | 2006-09-20 | 安徽中科大讯飞信息科技有限公司 | 一种结合高层描述信息和模型自适应的说话人转换方法 |
US20090089063A1 (en) * | 2007-09-29 | 2009-04-02 | Fan Ping Meng | Voice conversion method and system |
CN102063899A (zh) * | 2010-10-27 | 2011-05-18 | 南京邮电大学 | 一种非平行文本条件下的语音转换方法 |
-
2012
- 2012-12-11 CN CN201210528629.4A patent/CN102982809B/zh active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN1835074A (zh) * | 2006-04-07 | 2006-09-20 | 安徽中科大讯飞信息科技有限公司 | 一种结合高层描述信息和模型自适应的说话人转换方法 |
US20090089063A1 (en) * | 2007-09-29 | 2009-04-02 | Fan Ping Meng | Voice conversion method and system |
CN102063899A (zh) * | 2010-10-27 | 2011-05-18 | 南京邮电大学 | 一种非平行文本条件下的语音转换方法 |
Non-Patent Citations (3)
Title |
---|
LING-HUI CHEN,ET AL.: "NON-PARALLEL TRAINING FOR VOICE CONVERSION BASED ON FT-GMM", 《2011 IEEE INTERNATIONAL CONFERENCE ON ACOUSTICS,SPEECH AND SIGNAL PROCESSING(ICASSP)》, 27 May 2011 (2011-05-27), pages 5116 - 5119 * |
LING-HUI CHEN,ET AL: "GMM-based Voice Conversion with Explicit Modelling on Feature Transform", 《2010 7TH INTERNATIONAL SYMPOSIUM ON CHINESE SPOKEN LANGUAGE PROCESSING(ISCSLP)》, 3 December 2010 (2010-12-03), pages 364 - 368 * |
徐小峰等: "基于说话人独立建模的语音转换系统研究", 《信号处理》, vol. 25, no. 8, 31 August 2009 (2009-08-31), pages 171 - 174 * |
Cited By (86)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104143327B (zh) * | 2013-07-10 | 2015-12-09 | 腾讯科技(深圳)有限公司 | 一种声学模型训练方法和装置 |
CN104143327A (zh) * | 2013-07-10 | 2014-11-12 | 腾讯科技(深圳)有限公司 | 一种声学模型训练方法和装置 |
WO2015003436A1 (en) * | 2013-07-10 | 2015-01-15 | Tencent Technology (Shenzhen) Company Limited | Method and device for parallel processing in model training |
US9508347B2 (en) | 2013-07-10 | 2016-11-29 | Tencent Technology (Shenzhen) Company Limited | Method and device for parallel processing in model training |
CN103514883A (zh) * | 2013-09-26 | 2014-01-15 | 华南理工大学 | 一种自适应实现男女声切换方法 |
CN103531205A (zh) * | 2013-10-09 | 2014-01-22 | 常州工学院 | 基于深层神经网络特征映射的非对称语音转换方法 |
CN103531205B (zh) * | 2013-10-09 | 2016-08-31 | 常州工学院 | 基于深层神经网络特征映射的非对称语音转换方法 |
CN103886859B (zh) * | 2014-02-14 | 2016-08-17 | 河海大学常州校区 | 基于一对多码书映射的语音转换方法 |
CN103886859A (zh) * | 2014-02-14 | 2014-06-25 | 河海大学常州校区 | 基于一对多码书映射的语音转换方法 |
CN105023574B (zh) * | 2014-04-30 | 2018-06-15 | 科大讯飞股份有限公司 | 一种实现合成语音增强的方法及系统 |
CN105023570A (zh) * | 2014-04-30 | 2015-11-04 | 安徽科大讯飞信息科技股份有限公司 | 一种实现声音转换的方法及系统 |
CN105023570B (zh) * | 2014-04-30 | 2018-11-27 | 科大讯飞股份有限公司 | 一种实现声音转换的方法及系统 |
CN104392717A (zh) * | 2014-12-08 | 2015-03-04 | 常州工学院 | 一种基于声道谱高斯混合建模的快速语音转换系统及其方法 |
CN104464725B (zh) * | 2014-12-30 | 2017-09-05 | 福建凯米网络科技有限公司 | 一种唱歌模仿的方法与装置 |
CN104464725A (zh) * | 2014-12-30 | 2015-03-25 | 福建星网视易信息系统有限公司 | 一种唱歌模仿的方法与装置 |
CN106384587A (zh) * | 2015-07-24 | 2017-02-08 | 科大讯飞股份有限公司 | 一种语音识别方法及系统 |
CN106384587B (zh) * | 2015-07-24 | 2019-11-15 | 科大讯飞股份有限公司 | 一种语音识别方法及系统 |
CN105321526A (zh) * | 2015-09-23 | 2016-02-10 | 联想(北京)有限公司 | 音频处理方法和电子设备 |
CN105321526B (zh) * | 2015-09-23 | 2020-07-24 | 联想(北京)有限公司 | 音频处理方法和电子设备 |
CN105206257A (zh) * | 2015-10-14 | 2015-12-30 | 科大讯飞股份有限公司 | 一种声音转换方法及装置 |
CN105390141B (zh) * | 2015-10-14 | 2019-10-18 | 科大讯飞股份有限公司 | 声音转换方法和装置 |
CN105206257B (zh) * | 2015-10-14 | 2019-01-18 | 科大讯飞股份有限公司 | 一种声音转换方法及装置 |
CN105390141A (zh) * | 2015-10-14 | 2016-03-09 | 科大讯飞股份有限公司 | 声音转换方法和装置 |
CN106228976B (zh) * | 2016-07-22 | 2019-05-31 | 百度在线网络技术(北京)有限公司 | 语音识别方法和装置 |
CN106228976A (zh) * | 2016-07-22 | 2016-12-14 | 百度在线网络技术(北京)有限公司 | 语音识别方法和装置 |
CN107871497A (zh) * | 2016-09-23 | 2018-04-03 | 北京眼神科技有限公司 | 语音识别方法和装置 |
US11651578B2 (en) | 2016-11-29 | 2023-05-16 | Iflytek Co., Ltd. | End-to-end modelling method and system |
WO2018098892A1 (zh) * | 2016-11-29 | 2018-06-07 | 科大讯飞股份有限公司 | 端到端建模方法及系统 |
CN107068157A (zh) * | 2017-02-21 | 2017-08-18 | 中国科学院信息工程研究所 | 一种基于音频载体的信息隐藏方法及系统 |
CN107068157B (zh) * | 2017-02-21 | 2020-04-10 | 中国科学院信息工程研究所 | 一种基于音频载体的信息隐藏方法及系统 |
US11854563B2 (en) | 2017-05-24 | 2023-12-26 | Modulate, Inc. | System and method for creating timbres |
CN111201565A (zh) * | 2017-05-24 | 2020-05-26 | 调节股份有限公司 | 用于声对声转换的系统和方法 |
CN107464569A (zh) * | 2017-07-04 | 2017-12-12 | 清华大学 | 声码器 |
CN107545903A (zh) * | 2017-07-19 | 2018-01-05 | 南京邮电大学 | 一种基于深度学习的语音转换方法 |
CN107545903B (zh) * | 2017-07-19 | 2020-11-24 | 南京邮电大学 | 一种基于深度学习的语音转换方法 |
CN107481735A (zh) * | 2017-08-28 | 2017-12-15 | 中国移动通信集团公司 | 一种转换音频发声的方法、服务器及计算机可读存储介质 |
CN107507619B (zh) * | 2017-09-11 | 2021-08-20 | 厦门美图之家科技有限公司 | 语音转换方法、装置、电子设备及可读存储介质 |
CN107507619A (zh) * | 2017-09-11 | 2017-12-22 | 厦门美图之家科技有限公司 | 语音转换方法、装置、电子设备及可读存储介质 |
CN107452369B (zh) * | 2017-09-28 | 2021-03-19 | 百度在线网络技术(北京)有限公司 | 语音合成模型生成方法和装置 |
US10978042B2 (en) | 2017-09-28 | 2021-04-13 | Baidu Online Network Technology (Beijing) Co., Ltd. | Method and apparatus for generating speech synthesis model |
CN107464554A (zh) * | 2017-09-28 | 2017-12-12 | 百度在线网络技术(北京)有限公司 | 语音合成模型生成方法和装置 |
CN107452369A (zh) * | 2017-09-28 | 2017-12-08 | 百度在线网络技术(北京)有限公司 | 语音合成模型生成方法和装置 |
CN109935225A (zh) * | 2017-12-15 | 2019-06-25 | 富泰华工业(深圳)有限公司 | 文字信息处理装置及方法、计算机存储介质及移动终端 |
CN108108357A (zh) * | 2018-01-12 | 2018-06-01 | 京东方科技集团股份有限公司 | 口音转换方法及装置、电子设备 |
CN108461079A (zh) * | 2018-02-02 | 2018-08-28 | 福州大学 | 一种面向音色转换的歌声合成方法 |
CN108550372A (zh) * | 2018-03-24 | 2018-09-18 | 上海诚唐展览展示有限公司 | 一种将天文射电信号转换为音频的系统 |
CN108847249A (zh) * | 2018-05-30 | 2018-11-20 | 苏州思必驰信息科技有限公司 | 声音转换优化方法和系统 |
CN108847249B (zh) * | 2018-05-30 | 2020-06-05 | 苏州思必驰信息科技有限公司 | 声音转换优化方法和系统 |
CN109147758A (zh) * | 2018-09-12 | 2019-01-04 | 科大讯飞股份有限公司 | 一种说话人声音转换方法及装置 |
CN109616131B (zh) * | 2018-11-12 | 2023-07-07 | 南京南大电子智慧型服务机器人研究院有限公司 | 一种数字实时语音变音方法 |
CN109377978A (zh) * | 2018-11-12 | 2019-02-22 | 南京邮电大学 | 非平行文本条件下基于i向量的多对多说话人转换方法 |
CN109616131A (zh) * | 2018-11-12 | 2019-04-12 | 南京南大电子智慧型服务机器人研究院有限公司 | 一种数字实时语音变音方法 |
CN109377978B (zh) * | 2018-11-12 | 2021-01-26 | 南京邮电大学 | 非平行文本条件下基于i向量的多对多说话人转换方法 |
CN109326283B (zh) * | 2018-11-23 | 2021-01-26 | 南京邮电大学 | 非平行文本条件下基于文本编码器的多对多语音转换方法 |
CN109326283A (zh) * | 2018-11-23 | 2019-02-12 | 南京邮电大学 | 非平行文本条件下基于文本编码器的多对多语音转换方法 |
CN109637551A (zh) * | 2018-12-26 | 2019-04-16 | 出门问问信息科技有限公司 | 语音转换方法、装置、设备及存储介质 |
CN109599091A (zh) * | 2019-01-14 | 2019-04-09 | 南京邮电大学 | 基于STARWGAN-GP和x向量的多对多说话人转换方法 |
CN109599091B (zh) * | 2019-01-14 | 2021-01-26 | 南京邮电大学 | 基于STARWGAN-GP和x向量的多对多说话人转换方法 |
CN109817198B (zh) * | 2019-03-06 | 2021-03-02 | 广州多益网络股份有限公司 | 语音合成方法、装置及存储介质 |
CN109817198A (zh) * | 2019-03-06 | 2019-05-28 | 广州多益网络股份有限公司 | 用于语音合成的多发音训练方法、语音合成方法与装置 |
CN110060690A (zh) * | 2019-04-04 | 2019-07-26 | 南京邮电大学 | 基于STARGAN和ResNet的多对多说话人转换方法 |
CN110060701A (zh) * | 2019-04-04 | 2019-07-26 | 南京邮电大学 | 基于vawgan-ac的多对多语音转换方法 |
CN110060701B (zh) * | 2019-04-04 | 2023-01-31 | 南京邮电大学 | 基于vawgan-ac的多对多语音转换方法 |
CN110010144A (zh) * | 2019-04-24 | 2019-07-12 | 厦门亿联网络技术股份有限公司 | 语音信号增强方法及装置 |
CN111951810A (zh) * | 2019-05-14 | 2020-11-17 | 国际商业机器公司 | 高质量非并行多对多语音转换 |
CN110459232A (zh) * | 2019-07-24 | 2019-11-15 | 浙江工业大学 | 一种基于循环生成对抗网络的语音转换方法 |
CN110600012A (zh) * | 2019-08-02 | 2019-12-20 | 特斯联(北京)科技有限公司 | 一种人工智能学习的模糊语音语义识别方法及系统 |
CN110570873B (zh) * | 2019-09-12 | 2022-08-05 | Oppo广东移动通信有限公司 | 声纹唤醒方法、装置、计算机设备以及存储介质 |
CN110600013A (zh) * | 2019-09-12 | 2019-12-20 | 苏州思必驰信息科技有限公司 | 非平行语料声音转换数据增强模型训练方法及装置 |
CN110570873A (zh) * | 2019-09-12 | 2019-12-13 | Oppo广东移动通信有限公司 | 声纹唤醒方法、装置、计算机设备以及存储介质 |
CN111433847A (zh) * | 2019-12-31 | 2020-07-17 | 深圳市优必选科技股份有限公司 | 语音转换的方法及训练方法、智能装置和存储介质 |
WO2021134520A1 (zh) * | 2019-12-31 | 2021-07-08 | 深圳市优必选科技股份有限公司 | 语音转换的方法及训练方法、智能装置和存储介质 |
CN111433847B (zh) * | 2019-12-31 | 2023-06-09 | 深圳市优必选科技股份有限公司 | 语音转换的方法及训练方法、智能装置和存储介质 |
CN111462769A (zh) * | 2020-03-30 | 2020-07-28 | 深圳市声希科技有限公司 | 一种端到端的口音转换方法 |
CN111462769B (zh) * | 2020-03-30 | 2023-10-27 | 深圳市达旦数生科技有限公司 | 一种端到端的口音转换方法 |
CN111883149B (zh) * | 2020-07-30 | 2022-02-01 | 四川长虹电器股份有限公司 | 一种带情感和韵律的语音转换方法及装置 |
CN111883149A (zh) * | 2020-07-30 | 2020-11-03 | 四川长虹电器股份有限公司 | 一种带情感和韵律的语音转换方法及装置 |
US11996117B2 (en) | 2020-10-08 | 2024-05-28 | Modulate, Inc. | Multi-stage adaptive system for content moderation |
CN112309365A (zh) * | 2020-10-21 | 2021-02-02 | 北京大米科技有限公司 | 语音合成模型的训练方法、装置、存储介质以及电子设备 |
CN112309365B (zh) * | 2020-10-21 | 2024-05-10 | 北京大米科技有限公司 | 语音合成模型的训练方法、装置、存储介质以及电子设备 |
CN112382308A (zh) * | 2020-11-02 | 2021-02-19 | 天津大学 | 基于深度学习与简单声学特征的零次语音转换系统和方法 |
CN112735434A (zh) * | 2020-12-09 | 2021-04-30 | 中国人民解放军陆军工程大学 | 一种具有声纹克隆功能的语音通话方法及系统 |
CN113345452A (zh) * | 2021-04-27 | 2021-09-03 | 北京搜狗科技发展有限公司 | 语音转换方法、语音转换模型的训练方法、装置和介质 |
CN113345452B (zh) * | 2021-04-27 | 2024-04-26 | 北京搜狗科技发展有限公司 | 语音转换方法、语音转换模型的训练方法、装置和介质 |
CN113889130A (zh) * | 2021-09-27 | 2022-01-04 | 平安科技(深圳)有限公司 | 一种语音转换方法、装置、设备及介质 |
CN114203154A (zh) * | 2021-12-09 | 2022-03-18 | 北京百度网讯科技有限公司 | 语音风格迁移模型的训练、语音风格迁移方法及装置 |
Also Published As
Publication number | Publication date |
---|---|
CN102982809B (zh) | 2014-12-10 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN102982809B (zh) | 一种说话人声音转换方法 | |
CN106228977B (zh) | 基于深度学习的多模态融合的歌曲情感识别方法 | |
Gerosa et al. | A review of ASR technologies for children's speech | |
Jin et al. | Speech emotion recognition with acoustic and lexical features | |
CN105741832B (zh) | 一种基于深度学习的口语评测方法和系统 | |
Liao et al. | Large vocabulary automatic speech recognition for children | |
Kandali et al. | Emotion recognition from Assamese speeches using MFCC features and GMM classifier | |
CN106297773B (zh) | 一种神经网络声学模型训练方法 | |
CN102332263B (zh) | 一种基于近邻原则合成情感模型的说话人识别方法 | |
Lee et al. | Mispronunciation detection via dynamic time warping on deep belief network-based posteriorgrams | |
CN103544963A (zh) | 一种基于核半监督判别分析的语音情感识别方法 | |
CN102800314A (zh) | 具有反馈指导的英语句子识别与评价系统及其方法 | |
CN103366618A (zh) | 基于人工智能与虚拟现实用于汉语学习培训的场景设备 | |
CN104240706B (zh) | 一种基于GMM Token配比相似度校正得分的说话人识别方法 | |
Wang et al. | Child Speech Disorder Detection with Siamese Recurrent Network Using Speech Attribute Features. | |
CN109300339A (zh) | 一种英语口语的练习方法及系统 | |
Sheikh et al. | Advancing stuttering detection via data augmentation, class-balanced loss and multi-contextual deep learning | |
Polur et al. | Investigation of an HMM/ANN hybrid structure in pattern recognition application using cepstral analysis of dysarthric (distorted) speech signals | |
CN110348482A (zh) | 一种基于深度模型集成架构的语音情感识别系统 | |
Sinha et al. | Acoustic-phonetic feature based dialect identification in Hindi Speech | |
CN102880906B (zh) | 一种基于diva神经网络模型的汉语元音发音方法 | |
Zhao et al. | [Retracted] Standardized Evaluation Method of Pronunciation Teaching Based on Deep Learning | |
Rafi et al. | Relative significance of speech sounds in speaker verification systems | |
CN103021226B (zh) | 一种基于发音节奏的语音评测方法及装置 | |
Gopal | Automated Recognition of Hindi Word Audio Clips for Indian Children using Clustering-based Filters and Binary Classifier |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
C14 | Grant of patent or utility model | ||
GR01 | Patent grant |