[go: up one dir, main page]

CN114495898B - 一种统一的语音合成与语音转换的训练方法和系统 - Google Patents

一种统一的语音合成与语音转换的训练方法和系统 Download PDF

Info

Publication number
CN114495898B
CN114495898B CN202210395964.5A CN202210395964A CN114495898B CN 114495898 B CN114495898 B CN 114495898B CN 202210395964 A CN202210395964 A CN 202210395964A CN 114495898 B CN114495898 B CN 114495898B
Authority
CN
China
Prior art keywords
speech
information
content information
conversion
loss function
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202210395964.5A
Other languages
English (en)
Other versions
CN114495898A (zh
Inventor
陶建华
汪涛
易江燕
傅睿博
张震
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Institute of Automation of Chinese Academy of Science
Original Assignee
Institute of Automation of Chinese Academy of Science
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Institute of Automation of Chinese Academy of Science filed Critical Institute of Automation of Chinese Academy of Science
Priority to CN202210395964.5A priority Critical patent/CN114495898B/zh
Publication of CN114495898A publication Critical patent/CN114495898A/zh
Application granted granted Critical
Publication of CN114495898B publication Critical patent/CN114495898B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L13/00Speech synthesis; Text to speech systems
    • G10L13/02Methods for producing synthetic speech; Speech synthesisers
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L13/00Speech synthesis; Text to speech systems
    • G10L13/02Methods for producing synthetic speech; Speech synthesisers
    • G10L13/027Concept to speech synthesisers; Generation of natural phrases from machine-based concepts
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L13/00Speech synthesis; Text to speech systems
    • G10L13/08Text analysis or generation of parameters for speech synthesis out of text, e.g. grapheme to phoneme translation, prosody generation or stress or intonation determination

Landscapes

  • Engineering & Computer Science (AREA)
  • Computational Linguistics (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • Acoustics & Sound (AREA)
  • Multimedia (AREA)
  • Electrically Operated Instructional Devices (AREA)

Abstract

本发明提出一种统一的语音合成与语音转换的训练方法和系统。其中,方法包括:将语音合成和语音转换的编码任务解耦成三个子任务,分别为内容信息的提取、说话人信息的提取和韵律信息的提取;所述内容信息是与说话人无关的语言信息;所述说话人信息包括:说话人的特征;所述韵律信息表示说话人如何说出内容信息,反映语音的节奏;将提取得到的所述内容信息、说话人信息和韵律信息输入解码任务,得到还原的语音信息。本发明提出的方案,将语音合成与语音转换模型进行了统一,避免了独立搭建的困难;使用无标注的语音提高语音合成与语音转换的性能。

Description

一种统一的语音合成与语音转换的训练方法和系统
技术领域
本发明属于语音克隆技术领域,尤其涉及一种统一的语音合成与语音转换的训练方法和系统。
背景技术
克隆目标说话人的声音是一项极具吸引力的技术,可以应用于各种场景,如娱乐创作、个性化移动助手、安全领域等。最理想的语音克隆操作是只给未见过目标说话人的一句话语音作为参考,然后即可以合成目标说话人的任何语音,这称为单样本语音克隆。在语音研究领域,语音合成技术和语音转换技术是实现语音克隆的两种主流方式。两种技术在以往是作为独立的任务进行分别研究和开发的。
TTS (text-to-speech):语音合成;
VC (voice conversion):语音转换;
虽然TTS和VC技术是语音克隆的两种重要方法,两种技术在以往是作为独立的任务进行分别研究和开发的,它们之间没有太多的相互作用。困难的原因是因为这两项任务的语音内容表示不同。具体来说,TTS中的语音内容是通过文本信息获得的,TTS中的文本和语音是两个不相等的序列,通常需要注意机制来对齐它们。而注意机制往往受到说话人信息的影响,因此不可能学习到与说话人无关的语音内容表征。而在VC中,源语音和目标语音在语音内容上是对齐的,因此可以直接从源语音中提取语音内容,这与TTS是不同。
发明内容
为解决上述技术问题,本发明提出一种统一的语音合成与语音转换的训练方法和系统的技术方案,以解决上述技术问题。
本发明第一方面公开了一种统一的语音合成与语音转换的训练方法,所述方法包括:
步骤S1、将语音合成和语音转换的编码任务解耦成三个子任务,分别为内容信息的提取、说话人信息的提取和韵律信息的提取;所述内容信息是与说话人无关的语言信息;所述说话人信息包括:说话人的特征;所述韵律信息表示说话人如何说出内容信息,反映语音的节奏;
步骤S2、将提取得到的所述内容信息、说话人信息和韵律信息输入解码任务,得到还原的语音信息。
根据本发明第一方面的方法,在所述内容信息的提取的子任务中,对于语音合成,语音内容的来源是文本,使用文本编码器对文本进行编码以获得上下文表示;根据音素的持续时间信息对所述上下文表示进行上采样,以获得语音的内容信息。
根据本发明第一方面的方法,在所述内容信息的提取的子任务中,对于语音转换,由于源语音与目标语音对齐,直接使用内容编码器从源语音中提取语音的内容信息。
根据本发明第一方面的方法,所述说话人信息的提取的编码器在语音合成与语音转换的任务中是共享的,直接从没有文本的语音中提取所述说话人信息。
根据本发明第一方面的方法,所述韵律信息的提取的编码器在语音合成与语音转换的任务中是共享的,直接从语音中提取基频信息作为所述韵律信息。
根据本发明第一方面的方法,在训练阶段,以语音的内容信息和说话人信息为输入来预测基频信息。
根据本发明第一方面的方法,语音合成和语音转换的总损失函数包括三部分,语音合成的损失函数、语音转换的损失函数和额外的内容信息损失函数,即,
总损失函数=语音合成的损失函数+语音转换的损失函数+额外的内容信息损失函数;
所述额外的内容信息损失函数的构造方法包括:
应用矢量量化码本进行编码分别提取语音合成的内容信息和语音转换的内容信息;
再应用语音合成的内容信息和语音转换的内容信息的差值,构造所述额外的内容信息损失函数;
语音合成的损失函数包含两部分,一部分是语音合成的语音的重构损失,另一部分是语音合成的基频的重构损失,即,
语音合成的损失函数=语音合成的语音的重构损失+语音合成的基频的重构损失;
语音转换的损失函数包含两部分,一部分是语音转换的语音的重构损失,另一部分是语音转换的基频的重构损失,即,
语音转换的损失函数=语音转换的语音的重构损失+语音转换的基频的重构损失。
本发明第二方面公开了一种统一的语音合成与语音转换的训练系统,所述系统包括:
第一处理模块,被配置为,将语音合成和语音转换的编码任务解耦成三个子任务,分别为内容信息的提取、说话人信息的提取和韵律信息的提取;所述内容信息是与说话人无关的语言信息;所述说话人信息包括:说话人的特征;所述韵律信息表示说话人如何说出内容信息,反映语音的节奏;
第二处理模块,被配置为,将提取得到的所述内容信息、说话人信息和韵律信息输入解码任务,得到还原的语音信息。
根据本发明第二方面的系统,第一处理模块,被配置为,在所述内容信息的提取的子任务中,对于语音合成,语音内容的来源是文本,使用文本编码器对文本进行编码以获得上下文表示;根据音素的持续时间信息对所述上下文表示进行上采样,以获得语音的内容信息。
根据本发明第二方面的系统,第一处理模块,被配置为,在所述内容信息的提取的子任务中,对于语音转换,由于源语音与目标语音对齐,直接使用内容编码器从源语音中提取语音的内容信息。
根据本发明第二方面的系统,第一处理模块,被配置为,述韵律信息的提取的编码器在语音合成与语音转换的任务中是共享的,直接从语音中提取基频信息作为所述韵律信息。
根据本发明第二方面的系统,第一处理模块,被配置为,在训练阶段,以语音的内容信息和说话人信息为输入来预测基频信息。
根据本发明第二方面的系统,第一处理模块,被配置为,语音合成和语音转换的总损失函数包括三部分,语音合成的损失函数、语音转换的损失函数和额外的内容信息损失函数,即,
总损失函数=语音合成的损失函数+语音转换的损失函数+额外的内容信息损失函数;
所述额外的内容信息损失函数的构造包括:
应用矢量量化码本进行编码分别提取语音合成的内容信息和语音转换的内容信息;
再应用语音合成的内容信息和语音转换的内容信息的差值,构造所述额外的内容信息损失函数;
语音合成的损失函数包含两部分,一部分是语音合成的语音的重构损失,另一部分是语音合成的基频的重构损失,即,
语音合成的损失函数=语音合成的语音的重构损失+语音合成的基频的重构损失;
语音转换的损失函数包含两部分,一部分是语音转换的语音的重构损失,另一部分是语音转换的基频的重构损失,即,
语音转换的损失函数=语音转换的语音的重构损失+语音转换的基频的重构损失。
本发明第三方面公开了一种电子设备。电子设备包括存储器和处理器,存储器存储有计算机程序,处理器执行计算机程序时,实现本发明公开第一方面中任一项的一种统一的语音合成与语音转换的训练方法中的步骤。
本发明第四方面公开了一种计算机可读存储介质。计算机可读存储介质上存储有计算机程序,计算机程序被处理器执行时,实现本发明公开第一方面中任一项的一种统一的语音合成与语音转换的训练方法中的步骤。
本发明提出的方案,具有如下有益效果:
1.将语音合成与语音转换模型进行了统一,避免了独立搭建的困难。
2.使用无标注的语音提高语音合成与语音转换的性能。
附图说明
为了更清楚地说明本发明具体实施方式或现有技术中的技术方案,下面将对具体实施方式或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图是本发明的一些实施方式,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1为根据本发明实施例的一种统一的语音合成与语音转换的训练方法的流程图;
图2为根据本发明实施例的训练方法的结构图;
图3为根据本发明实施例的子任务的结构图;
图4为根据本发明实施例的一种统一的语音合成与语音转换的训练系统的结构图;
图5为根据本发明实施例的一种电子设备的结构图。
具体实施方式
为使本发明实施例的目的、技术方案和优点更加清楚,下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例只是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
本发明第一方面公开了一种统一的语音合成与语音转换的训练方法。图1为根据本发明实施例的一种统一的语音合成与语音转换的训练方法的流程图,如图1所示,所述方法包括:
步骤S1、将语音合成和语音转换的编码任务解耦成三个子任务,分别为内容信息的提取、说话人信息的提取和韵律信息的提取;所述内容信息是与说话人无关的语言信息;所述说话人信息包括:说话人的特征;所述韵律信息表示说话人如何说出内容信息,反映语音的节奏;
步骤S2、将提取得到的所述内容信息、说话人信息和韵律信息输入解码任务,得到还原的语音信息。
在步骤S1,将语音合成和语音转换的编码任务解耦成三个子任务,分别为内容信息的提取、说话人信息的提取和韵律信息的提取;所述内容信息是与说话人无关的语言信息;所述说话人信息包括:说话人的特征,如音色、音量等;所述韵律信息表示说话人如何说出内容信息,反映语音的节奏。
在一些实施例中,为了生成可理解的语音信号,建模准确的语音内容信息是非常重要。由于TTS和VC的输入信号类型不同,所以提取内容信息的方法也不同。在所述内容信息的提取的子任务中,对于语音合成,语音内容的来源是文本,使用文本编码器对文本进行编码以获得上下文表示;根据音素的持续时间信息对所述上下文表示进行上采样,以获得语音的内容信息;对于语音转换,由于源语音与目标语音对齐,直接使用内容编码器从源语音中提取语音的内容信息。
在一些实施例中,所述说话人信息的提取的编码器在语音合成与语音转换的任务中是共享的,直接从没有文本的语音中提取所述说话人信息;VC任务中大量没有文本标注的数据可以用于训练,这有助于提高模型的迁移学习能力。
在一些实施例中,由于基频信息能够反映语音的节奏,因此,基频信息被用来提取作为韵律信息。
在一些实施例中,所述韵律信息的提取的编码器在语音合成与语音转换的任务中是共享的,直接从语音中提取基频信息作为所述韵律信息;在训练阶段,以语音的内容信息和说话人信息为输入来预测基频信息。
在一些实施例中,语音合成和语音转换的总损失函数包括三部分,语音合成的损失函数、语音转换的损失函数和额外的内容信息损失函数,即,
总损失函数=语音合成的损失函数+语音转换的损失函数+额外的内容信息损失函数;
所述额外的内容信息损失函数的构造方法包括:
应用矢量量化码本进行编码分别提取语音合成的内容信息和语音转换的内容信息;
再应用语音合成的内容信息和语音转换的内容信息的差值,构造所述额外的内容信息损失函数;
语音合成的损失函数包含两部分,一部分是语音合成的语音的重构损失,另一部分是语音合成的基频的重构损失,即,
语音合成的损失函数=语音合成的语音的重构损失+语音合成的基频的重构损失;
语音转换的损失函数包含两部分,一部分是语音转换的语音的重构损失,另一部分是语音转换的基频的重构损失,即,
语音转换的损失函数=语音转换的语音的重构损失+语音转换的基频的重构损失。
具体实施过程
训练流程:
1、首先训练输入TTS数据,即文本x和其对应的语音y。
从y中提取基频信息F0和说话人信息S,再通过F0提取韵律信息P;
从x中提取说话内容信息C。
这三种信息的提取过程可以用公式表示为:
C = VQ(text_encoder(x))
S = speaker_encoder(y)
P = prosody_encoder(y)
VQ表示为矢量量化;
text_encoder(•)表示为文本编码器;
speaker_encoder(•)表示为说话人信息编码器;
prosody_encoder(•)表示为韵律信息编码器;
最后将三个信息相加然后输入到解码器decoder模块中,还原出y信息。
y’ = decoder(C + S + P)
F0’ = pitch_predictor(C+S)
该过程的损失包含两部分,一部分是y的重构损失,一部分是基频的重构损失。
Figure 393148DEST_PATH_IMAGE001
2、然后训练VC数据,只使用语音数据y即可。(y即包括无标注数据,也包括有标注数据)
不同于TTS,此时说话内容信息直接从y中提取。
C’ = VQ(content_encoder(y))
S’ = speaker_encoder(y)
P’ = prosody_encoder(y)
最后将三个信息相加然后输入到decoder模块中,还原出y信息。
y’ = decoder(C’ + S’ + P’)
F0’ = pitch_predictor(C’+S’)
该过程的损失包含两部分,一部分是y的重构损失,一部分是基频的重构损失。
Figure 850674DEST_PATH_IMAGE002
3、TTS和VC的内容信息损失
对于有标注的数据y,在TTS流程中和VC流程中会获得不同的说话内容信息C和C’。为了统一TTS和VC框架,做了两个工作,分别是在提取C和C’的时候使用同一个VQ码本进行编码。另一方面采用额外的内容损失对有标注的语音进行说话内容损失监督。损失如下:
Figure 665046DEST_PATH_IMAGE003
故,总的损失包含三个部分:
Figure 487509DEST_PATH_IMAGE004
测试阶段
根据语音生成任务的不同,具体的,是需要语音合成任务还是语音转换任务,有不同的推理路径。
语音合成任务:推理采用图2中左侧的方式合成目标说话人的语音即可。
语音转换任务:推理采用图2中右侧的方式合成目标说话人的语音即可。
实施案例:
所提的统一的TTS和VC训练框架如图2所示。具体的,其中每个子模块的结构可以如图3示。文本编码器中的前馈变换器(FFT)块数为2,解码器模块中为6。在每个FFT块中,隐藏状态的维数为256。所有一维卷积的内核大小都设置为3。辍学率设置为0.5。解码器中最后一个线性层的维数为80,这与Mel谱维数一致。编码器(文本编码器、韵律信息编码器、内容信息编码器)中最后一个线性层的尺寸是256。Adam优化器用于更新参数。初始学习率为0.001,学习率呈指数下降。在推理阶段,hifigan被用作声码器。
此外需要额外训练一个时长模型,该时长模型在语音合成任务中非常常见,示例采用3层全连接层即可实现。
根据以上描述将模型进行构建之后,根据具体实施过程的第一步的方法进行训练模型。再根据具体实施过程的第二步的方法即可实现使用同一个框架对语音合成和语音转换任务进行实现。
综上,本发明提出的方案能够,
1.将语音合成与语音转换模型进行了统一,避免了独立搭建的困难。
2.使用无标注的语音提高语音合成与语音转换的性能。
本发明第二方面公开了一种统一的语音合成与语音转换的训练系统。图4为根据本发明实施例的一种统一的语音合成与语音转换的训练系统的结构图;如图4所示,所述系统100包括:
第一处理模块101,被配置为,将语音合成和语音转换的编码任务解耦成三个子任务,分别为内容信息的提取、说话人信息的提取和韵律信息的提取;所述内容信息是与说话人无关的语言信息;所述说话人信息包括:说话人的特征;所述韵律信息表示说话人如何说出内容信息,反映语音的节奏;
第二处理模块102,被配置为,将提取得到的所述内容信息、说话人信息和韵律信息输入解码任务,得到还原的语音信息。
根据本发明第二方面的系统,第一处理模块101,被配置为,在所述内容信息的提取的子任务中,对于语音合成,语音内容的来源是文本,使用文本编码器对文本进行编码以获得上下文表示;根据音素的持续时间信息对所述上下文表示进行上采样,以获得语音的内容信息。
根据本发明第二方面的系统,第一处理模块101,被配置为,在所述内容信息的提取的子任务中,对于语音转换,由于源语音与目标语音对齐,直接使用内容编码器从源语音中提取语音的内容信息。
根据本发明第二方面的系统,第一处理模块101,被配置为,述韵律信息的提取的编码器在语音合成与语音转换的任务中是共享的,直接从语音中提取基频信息作为所述韵律信息。
根据本发明第二方面的系统,第一处理模块101,被配置为,在训练阶段,以语音的内容信息和说话人信息为输入来预测基频信息。
根据本发明第二方面的系统,第一处理模块101,被配置为,语音合成和语音转换的总损失函数包括三部分,语音合成的损失函数、语音转换的损失函数和额外的内容信息损失函数,即,
总损失函数=语音合成的损失函数+语音转换的损失函数+额外的内容信息损失函数;
所述额外的内容信息损失函数的构造包括:
应用矢量量化码本进行编码分别提取语音合成的内容信息和语音转换的内容信息;
再应用语音合成的内容信息和语音转换的内容信息的差值,构造所述额外的内容信息损失函数;
语音合成的损失函数包含两部分,一部分是语音合成的语音的重构损失,另一部分是语音合成的基频的重构损失,即,
语音合成的损失函数=语音合成的语音的重构损失+语音合成的基频的重构损失;
语音转换的损失函数包含两部分,一部分是语音转换的语音的重构损失,另一部分是语音转换的基频的重构损失,即,
语音转换的损失函数=语音转换的语音的重构损失+语音转换的基频的重构损失。
本发明第三方面公开了一种电子设备。电子设备包括存储器和处理器,存储器存储有计算机程序,处理器执行计算机程序时,实现本发明公开第一方面中任一项的一种统一的语音合成与语音转换的训练方法中的步骤。
图5为根据本发明实施例的一种电子设备的结构图,如图5所示,电子设备包括通过系统总线连接的处理器、存储器、通信接口、显示屏和输入装置。其中,该电子设备的处理器用于提供计算和控制能力。该电子设备的存储器包括非易失性存储介质、内存储器。该非易失性存储介质存储有操作系统和计算机程序。该内存储器为非易失性存储介质中的操作系统和计算机程序的运行提供环境。该电子设备的通信接口用于与外部的终端进行有线或无线方式的通信,无线方式可通过WIFI、运营商网络、近场通信(NFC)或其他技术实现。该电子设备的显示屏可以是液晶显示屏或者电子墨水显示屏,该电子设备的输入装置可以是显示屏上覆盖的触摸层,也可以是电子设备外壳上设置的按键、轨迹球或触控板,还可以是外接的键盘、触控板或鼠标等。
本领域技术人员可以理解,图5中示出的结构,仅仅是与本公开的技术方案相关的部分的结构图,并不构成对本申请方案所应用于其上的电子设备的限定,具体的电子设备可以包括比图中所示更多或更少的部件,或者组合某些部件,或者具有不同的部件布置。
本发明第四方面公开了一种计算机可读存储介质。计算机可读存储介质上存储有计算机程序,计算机程序被处理器执行时,实现本发明公开第一方面中任一项的一种统一的语音合成与语音转换的训练方法中的步骤中的步骤。
请注意,以上实施例的各技术特征可以进行任意的组合,为使描述简洁,未对上述实施例中的各个技术特征所有可能的组合都进行描述,然而,只要这些技术特征的组合不存在矛盾,都应当认为是本说明书记载的范围。以上实施例仅表达了本申请的几种实施方式,其描述较为具体和详细,但并不能因此而理解为对发明专利范围的限制。应当指出的是,对于本领域的普通技术人员来说,在不脱离本申请构思的前提下,还可以做出若干变形和改进,这些都属于本申请的保护范围。因此,本申请专利的保护范围应以所附权利要求为准。

Claims (7)

1.一种统一的语音合成与语音转换的训练方法,其特征在于,所述方法包括:
步骤S1、将语音合成和语音转换的编码任务解耦成三个子任务,分别为内容信息的提取、说话人信息的提取和韵律信息的提取;所述内容信息是与说话人无关的语言信息;所述说话人信息包括:说话人的特征;所述韵律信息表示说话人如何说出内容信息,反映语音的节奏;
步骤S2、将提取得到的所述内容信息、说话人信息和韵律信息输入解码任务,得到还原的语音信息;
语音合成和语音转换的总损失函数包括三部分,语音合成的损失函数、语音转换的损失函数和额外的内容信息损失函数,即,
总损失函数=语音合成的损失函数+语音转换的损失函数+额外的内容信息损失函数;
所述额外的内容信息损失函数的构造方法包括:
应用矢量量化码本进行编码分别提取语音合成的内容信息和语音转换的内容信息;
再应用语音合成的内容信息和语音转换的内容信息的差值,构造所述额外的内容信息损失函数;
语音合成的损失函数包含两部分,一部分是语音合成的语音的重构损失,另一部分是语音合成的基频的重构损失,即,
语音合成的损失函数=语音合成的语音的重构损失+语音合成的基频的重构损失;
语音转换的损失函数包含两部分,一部分是语音转换的语音的重构损失,另一部分是语音转换的基频的重构损失,即,
语音转换的损失函数=语音转换的语音的重构损失+语音转换的基频的重构损失;
所述韵律信息的提取的编码器在语音合成与语音转换的任务中是共享的,直接从语音中提取基频信息作为所述韵律信息;在训练阶段,以语音的内容信息和说话人信息为输入来预测基频信息。
2.根据权利要求1所述的一种统一的语音合成与语音转换的训练方法,其特征在于,在所述内容信息的提取的子任务中,对于语音合成,语音内容的来源是文本,使用文本编码器对文本进行编码以获得上下文表示;根据音素的持续时间信息对所述上下文表示进行上采样,以获得语音的内容信息。
3.根据权利要求2所述的一种统一的语音合成与语音转换的训练方法,其特征在于,在所述内容信息的提取的子任务中,对于语音转换,由于源语音与目标语音对齐,直接使用内容编码器从源语音中提取语音的内容信息。
4.根据权利要求1所述的一种统一的语音合成与语音转换的训练方法,其特征在于,在训练阶段,以语音的内容信息和说话人信息为输入来预测基频信息。
5.一种用于统一的语音合成与语音转换的训练系统,其特征在于,所述系统包括:
第一处理模块,被配置为,将语音合成和语音转换的编码任务解耦成三个子任务,分别为内容信息的提取、说话人信息的提取和韵律信息的提取;所述内容信息是与说话人无关的语言信息;所述说话人信息包括:说话人的特征;所述韵律信息表示说话人如何说出内容信息,反映语音的节奏;
第二处理模块,被配置为,将提取得到的所述内容信息、说话人信息和韵律信息输入解码任务,得到还原的语音信息;语音合成和语音转换的总损失函数包括三部分,语音合成的损失函数、语音转换的损失函数和额外的内容信息损失函数,即,
总损失函数=语音合成的损失函数+语音转换的损失函数+额外的内容信息损失函数;
所述额外的内容信息损失函数的构造方法包括:
应用矢量量化码本进行编码分别提取语音合成的内容信息和语音转换的内容信息;
再应用语音合成的内容信息和语音转换的内容信息的差值,构造所述额外的内容信息损失函数;
语音合成的损失函数包含两部分,一部分是语音合成的语音的重构损失,另一部分是语音合成的基频的重构损失,即,
语音合成的损失函数=语音合成的语音的重构损失+语音合成的基频的重构损失;
语音转换的损失函数包含两部分,一部分是语音转换的语音的重构损失,另一部分是语音转换的基频的重构损失,即,
语音转换的损失函数=语音转换的语音的重构损失+语音转换的基频的重构损失;
语音转换的损失函数包含两部分,一部分是语音转换的语音的重构损失,另一部分是语音转换的基频的重构损失,即,
语音转换的损失函数=语音转换的语音的重构损失+语音转换的基频的重构损失;
所述韵律信息的提取的编码器在语音合成与语音转换的任务中是共享的,直接从语音中提取基频信息作为所述韵律信息;在训练阶段,以语音的内容信息和说话人信息为输入来预测基频信息。
6.一种电子设备,其特征在于,所述电子设备包括存储器和处理器,所述存储器存储有计算机程序,所述处理器执行所述计算机程序时,实现权利要求1至4中任一项所述的一种统一的语音合成与语音转换的训练方法中的步骤。
7.一种计算机可读存储介质,其特征在于,所述计算机可读存储介质上存储有计算机程序,所述计算机程序被处理器执行时,实现权利要求1至4中任一项所述的一种统一的语音合成与语音转换的训练方法中的步骤。
CN202210395964.5A 2022-04-15 2022-04-15 一种统一的语音合成与语音转换的训练方法和系统 Active CN114495898B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202210395964.5A CN114495898B (zh) 2022-04-15 2022-04-15 一种统一的语音合成与语音转换的训练方法和系统

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202210395964.5A CN114495898B (zh) 2022-04-15 2022-04-15 一种统一的语音合成与语音转换的训练方法和系统

Publications (2)

Publication Number Publication Date
CN114495898A CN114495898A (zh) 2022-05-13
CN114495898B true CN114495898B (zh) 2022-07-01

Family

ID=81489542

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202210395964.5A Active CN114495898B (zh) 2022-04-15 2022-04-15 一种统一的语音合成与语音转换的训练方法和系统

Country Status (1)

Country Link
CN (1) CN114495898B (zh)

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101064103A (zh) * 2006-04-24 2007-10-31 中国科学院自动化研究所 基于音节韵律约束关系的汉语语音合成方法及系统
CN101471071A (zh) * 2007-12-26 2009-07-01 中国科学院自动化研究所 一种基于混合隐马尔可夫模型的语音合成系统
CN101751922A (zh) * 2009-07-22 2010-06-23 中国科学院自动化研究所 基于隐马尔可夫模型状态映射的文本无关语音转换系统
CN103247293A (zh) * 2013-05-14 2013-08-14 中国科学院自动化研究所 一种语音数据的编码及解码方法
CN104112444A (zh) * 2014-07-28 2014-10-22 中国科学院自动化研究所 一种基于文本信息的波形拼接语音合成方法
CN112365878A (zh) * 2020-10-30 2021-02-12 广州华多网络科技有限公司 语音合成方法、装置、设备及计算机可读存储介质
CN112750446A (zh) * 2020-12-30 2021-05-04 标贝(北京)科技有限公司 语音转换方法、装置和系统及存储介质
CN112786018A (zh) * 2020-12-31 2021-05-11 科大讯飞股份有限公司 语音转换及相关模型的训练方法、电子设备和存储装置
CN112820268A (zh) * 2020-12-29 2021-05-18 深圳市优必选科技股份有限公司 个性化语音转换训练方法、装置、计算机设备及存储介质

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101064103A (zh) * 2006-04-24 2007-10-31 中国科学院自动化研究所 基于音节韵律约束关系的汉语语音合成方法及系统
CN101471071A (zh) * 2007-12-26 2009-07-01 中国科学院自动化研究所 一种基于混合隐马尔可夫模型的语音合成系统
CN101751922A (zh) * 2009-07-22 2010-06-23 中国科学院自动化研究所 基于隐马尔可夫模型状态映射的文本无关语音转换系统
CN103247293A (zh) * 2013-05-14 2013-08-14 中国科学院自动化研究所 一种语音数据的编码及解码方法
CN104112444A (zh) * 2014-07-28 2014-10-22 中国科学院自动化研究所 一种基于文本信息的波形拼接语音合成方法
CN112365878A (zh) * 2020-10-30 2021-02-12 广州华多网络科技有限公司 语音合成方法、装置、设备及计算机可读存储介质
CN112820268A (zh) * 2020-12-29 2021-05-18 深圳市优必选科技股份有限公司 个性化语音转换训练方法、装置、计算机设备及存储介质
CN112750446A (zh) * 2020-12-30 2021-05-04 标贝(北京)科技有限公司 语音转换方法、装置和系统及存储介质
CN112786018A (zh) * 2020-12-31 2021-05-11 科大讯飞股份有限公司 语音转换及相关模型的训练方法、电子设备和存储装置

Also Published As

Publication number Publication date
CN114495898A (zh) 2022-05-13

Similar Documents

Publication Publication Date Title
CN113450765B (zh) 语音合成方法、装置、设备及存储介质
CN112786011B (zh) 语音合成方法、合成模型训练方法、装置、介质及设备
CN112687259B (zh) 一种语音合成方法、装置以及可读存储介质
CN113345415B (zh) 语音合成方法、装置、设备及存储介质
JP2020170200A (ja) エンドツーエンドのテキスト音声変換
JP2021196598A (ja) モデルトレーニング方法、音声合成方法、装置、電子機器、記憶媒体およびコンピュータプログラム
US8527276B1 (en) Speech synthesis using deep neural networks
JP2022133408A (ja) 音声変換方法、システム、電子機器、読取可能な記憶媒体及びコンピュータプログラム
CN113450758B (zh) 语音合成方法、装置、设备及介质
JP7681793B2 (ja) ロバストな直接音声間翻訳
CN113160794B (zh) 基于音色克隆的语音合成方法、装置及相关设备
US12249313B2 (en) Method and system for text-to-speech synthesis of streaming text
CN114242093A (zh) 语音音色转换方法、装置、计算机设备和存储介质
CN117678013A (zh) 使用合成的训练数据的两级文本到语音系统
CN117219052A (zh) 韵律预测方法、装置、设备、存储介质和程序产品
Ma et al. Tuning large language model for speech recognition with mixed-scale re-tokenization
CN114495896B (zh) 一种语音播放方法及计算机设备
CN115240633A (zh) 用于文本到语音转换的方法、装置、设备和存储介质
CN118398001B (zh) 语音生成方法、装置、计算机设备及存储介质
CN118230716B (zh) 深度学习模型的训练方法、语音合成方法、装置
CN118737122A (zh) 用于语音合成的方法、装置、设备和可读介质
CN114495898B (zh) 一种统一的语音合成与语音转换的训练方法和系统
CN114267330B (zh) 语音合成方法、装置、电子设备和存储介质
CN117133270A (zh) 语音合成方法、装置、电子设备及存储介质
CN115206281A (zh) 一种语音合成模型训练方法、装置、电子设备及介质

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant