[go: up one dir, main page]

CN113793589A - 语音合成方法及装置 - Google Patents

语音合成方法及装置 Download PDF

Info

Publication number
CN113793589A
CN113793589A CN202010456116.1A CN202010456116A CN113793589A CN 113793589 A CN113793589 A CN 113793589A CN 202010456116 A CN202010456116 A CN 202010456116A CN 113793589 A CN113793589 A CN 113793589A
Authority
CN
China
Prior art keywords
phoneme
duration
text
converted
pronunciation
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202010456116.1A
Other languages
English (en)
Inventor
别凡虎
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Huawei Technologies Co Ltd
Original Assignee
Huawei Technologies Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Huawei Technologies Co Ltd filed Critical Huawei Technologies Co Ltd
Priority to CN202010456116.1A priority Critical patent/CN113793589A/zh
Priority to PCT/CN2021/080403 priority patent/WO2021238338A1/zh
Publication of CN113793589A publication Critical patent/CN113793589A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L13/00Speech synthesis; Text to speech systems
    • G10L13/02Methods for producing synthetic speech; Speech synthesisers
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L13/00Speech synthesis; Text to speech systems
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L13/00Speech synthesis; Text to speech systems
    • G10L13/02Methods for producing synthetic speech; Speech synthesisers
    • G10L13/04Details of speech synthesis systems, e.g. synthesiser structure or memory management
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L13/00Speech synthesis; Text to speech systems
    • G10L13/08Text analysis or generation of parameters for speech synthesis out of text, e.g. grapheme to phoneme translation, prosody generation or stress or intonation determination
    • G10L13/10Prosody rules derived from text; Stress or intonation

Landscapes

  • Engineering & Computer Science (AREA)
  • Computational Linguistics (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • Acoustics & Sound (AREA)
  • Multimedia (AREA)
  • Telephone Function (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

本申请适用于终端人工智能技术领域及从文本到语音技术领域,提供了一种语音合成方法及装置,包括:确定待转换文本对应的每个音素的时长范围;将每个所述音素的时长范围中的任一时长,确定为相对应的音素的音素时长;根据所述待转换文本和每个音素的音素时长,生成语音数据。针对相同待转换文本的多个语音数据,多个语音数据中同一音素的音素时长可能基于相同的时长范围取值不同,则可以合成得到多种不同的语音数据,避免了针对同一待转换文本每次合成得到相同的语音数据,降低了语音合成的机械性,提高了语音合成的自然度和多样性。

Description

语音合成方法及装置
技术领域
本申请属于终端人工智能技术领域及从文本到语音技术领域,尤其涉及一种语音合成方法及装置。
背景技术
随着人工智能技术的不断发展,终端设备不但可以接收用户发出的语音信息,还可以向用户播放语音信息,用户无需查阅终端设备展示的文字,仅通过听觉就可以获知终端设备展示的信息。
相关技术中,终端设备可以获取待转换文本,并对待转换文本进行特征提取,得到语言特征,再通过语言特征确定待转换文本对应的每个音素的音素时长,最后根据各个音素时长和语言特征生成语音数据。
但是,终端设备在合成语音数据的过程中,针对同一待转换文本,多次生成的语音数据均是相同的,导致语音合成过于机械化。
发明内容
本申请实施例提供了一种语音合成方法及装置,可以解决语音合成过于机械化的问题。
第一方面,本申请实施例提供了一种语音合成方法,包括:
确定待转换文本对应的每个音素的时长范围;
将每个所述音素的时长范围中的任一时长,确定为相对应的音素的音素时长;
根据所述待转换文本和每个所述音素的音素时长,生成语音数据。
在第一方面的第一种可能的实现方式中,所述确定待转换文本对应的每个音素的时长范围,包括:
确定所述待转换文本对应的每个所述音素的平均发音时长、发音时长方差和发音时长分布密度;
根据每个所述音素的平均发音时长、发音时长方差和发音时长分布密度,确定每个所述音素的时长范围。
基于第一方面的第一种可能的实现方式,在第一方面的第二种可能的实现方式中,所述确定所述待转换文本对应的每个所述音素的平均发音时长、发音时长方差和发音时长分布密度,包括:
将所述待转换文本输入预先设置的文本分析模型,得到所述文本分析模型输出的每个所述音素的发音时长分布密度;
将所述待转换文本输入预先设置的时长模型,得到所述时长模型输出的每个所述音素的平均发音时长和发音时长方差。
基于第一方面的第一种可能的实现方式,在第一方面的第三种可能的实现方式中,所述根据每个所述音素的平均发音时长、发音时长方差和发音时长分布密度,确定每个所述音素的时长范围,包括:
根据每个所述音素的平均发音时长、发音时长方差和发音时长分布密度,通过正态分布算法确定每个所述音素的时长范围。
在第一方面的第四种可能的实现方式中,所述将每个所述音素的时长范围中的任一时长,确定为相对应的音素的音素时长,包括:
对于每个所述音素,根据所述音素对应的文字在所述待转换文本中的位置,获取所述音素的文本语义信息;
基于所述音素的时长范围和所述音素的文本语义信息,确定所述音素的音素时长。
在第一方面的第五种可能的实现方式中,所述将每个所述音素的时长范围中的任一时长,确定为相对应的音素的音素时长,包括:
获取用户数据,所述用户数据包括用户的年龄信息和性格信息;
基于所述音素的时长范围和所述用户数据,确定每个所述音素的音素时长。
基于第一方面的任意一种可能的实现方式,在第一方面的第六种可能的实现方式中,所述根据所述待转换文本和每个所述音素的音素时长,生成语音数据,包括:
根据所述待转换文本和每个所述音素的音素时长,通过预先设置的声学模型和声码器生成所述语音数据。
第二方面,本申请实施例提供了一种语音合成装置,包括:
范围确定模块,用于确定待转换文本对应的每个音素的时长范围;
时长确定模块,用于将每个所述音素的时长范围中的任一时长,确定为相对应的音素的音素时长;
生成模块,用于根据所述待转换文本和每个所述音素的音素时长,生成语音数据。
在第二方面的第一种可能的实现方式中,所述范围确定模块,具体用于确定所述待转换文本对应的每个所述音素的平均发音时长、发音时长方差和发音时长分布密度;根据每个所述音素的平均发音时长、发音时长方差和发音时长分布密度,确定每个所述音素的时长范围。
基于第二方面的第一种可能的实现方式,在第二方面的第二种可能的实现方式中,所述范围确定模块,还具体用于将所述待转换文本输入预先设置的文本分析模型,得到所述文本分析模型输出的每个所述音素的发音时长分布密度;将所述待转换文本输入预先设置的时长模型,得到所述时长模型输出的每个所述音素的平均发音时长和发音时长方差。
基于第二方面的第一种可能的实现方式,在第二方面的第三种可能的实现方式中,所述范围确定模块,还具体用于根据每个所述音素的平均发音时长、发音时长方差和发音时长分布密度,通过正态分布算法确定每个所述音素的时长范围。
在第二方面的第四种可能的实现方式中,所述时长确定模块,具体用于对于每个所述音素,根据所述音素对应的文字在所述待转换文本中的位置,获取所述音素的文本语义信息;基于所述音素的时长范围和所述音素的文本语义信息,确定所述音素的音素时长。
在第二方面的第五种可能的实现方式中,所述时长确定模块,具体用于获取用户数据,所述用户数据包括用户的年龄信息和性格信息;基于所述音素的时长范围和所述用户数据,确定每个所述音素的音素时长。
基于第二方面的任意一种可能的实现方式,在第二方面的第六种可能的实现方式中,所述生成模块,具体用于根据所述待转换文本和每个所述音素的音素时长,通过预先设置的声学模型和声码器生成所述语音数据。
第三方面,本申请实施例提供了一种终端设备,包括存储器、处理器以及存储在所述存储器中并可在所述处理器上运行的计算机程序,其特征在于,所述处理器执行所述计算机程序时实现如上述第一方面中任一项所述的语音合成方法。
第四方面,本申请实施例提供了一种计算机可读存储介质,所述计算机可读存储介质存储有计算机程序,其特征在于,所述计算机程序被处理器执行时实现如上述第一方面中任一项所述的语音合成方法。
第五方面,本申请实施例提供了一种计算机程序产品,当计算机程序产品在终端设备上运行时,使得终端设备执行上述第一方面中任一项所述的语音合成方法。
第六方面,本申请实施例提供了一种芯片系统,所述芯片系统包括处理器,所述处理器与存储器耦合,所述处理器执行存储器中存储的计算机程序,以实现如上述第一方面中任一项所述的语音合成方法。
其中,所述芯片系统可以为单个芯片,或者多个芯片组成的芯片模组。
本申请实施例与现有技术相比存在的有益效果是:
本申请实施例通过确定待转换文本对应的每个音素的时长范围,再将每个音素的时长范围中的任一时长,确定为相对应的音素的音素时长,最后根据待转换文本和每个音素的音素时长,生成语音数据。针对相同待转换文本的多个语音数据,多个语音数据中同一音素的音素时长可能基于相同的时长范围取值不同,则可以合成得到多种不同的语音数据,避免了针对同一待转换文本每次合成得到相同的语音数据,降低了语音合成的机械性,提高了语音合成的自然度和多样性。
附图说明
图1是本申请实施例提供的语音合成方法所涉及的一种语音合成场景的场景示意图;
图2是本申请实施例提供的语音合成方法所涉及的另一种语音合成场景的场景示意图;
图3是本申请实施例提供的一种终端设备的结构框图;
图4是本申请实施例提供的一种语音合成方法的示意性流程图;
图5是本申请实施例提供的一种确定音素的时长范围的示意性流程图;
图6是本申请实施例提供的一种时长范围的示意图;
图7是本申请实施例提供的一种语音合成装置的结构框图。
具体实施方式
以下描述中,为了说明而不是为了限定,提出了诸如特定系统结构、技术之类的具体细节,以便透彻理解本申请实施例。然而,本领域的技术人员应当清楚,在没有这些具体细节的其它实施例中也可以实现本申请。在其它情况中,省略对众所周知的系统、装置、电路以及方法的详细说明,以免不必要的细节妨碍本申请的描述。
以下实施例中所使用的术语只是为了描述特定实施例的目的,而并非旨在作为对本申请的限制。如在本申请的说明书和所附权利要求书中所使用的那样,单数表达形式“一个”、“一种”、“所述”、“上述”、“该”和“这一”旨在也包括例如“一个或多个”这种表达形式,除非其上下文中明确地有相反指示。还应当理解,在本申请实施例中,“一个或多个”是指一个、两个或两个以上;“和/或”,描述关联对象的关联关系,表示可以存在三种关系;例如,A和/或B,可以表示:单独存在A,同时存在A和B,单独存在B的情况,其中A、B可以是单数或者复数。字符“/”一般表示前后关联对象是一种“或”的关系。
本申请实施例提供的语音合成方法可以应用于手机、平板电脑、可穿戴设备、车载设备、增强现实(augmented reality,AR)/虚拟现实(virtual reality,VR)设备、笔记本电脑、超级移动个人计算机(ultra-mobile personal computer,UMPC)、上网本、个人数字助理(personal digital assistant,PDA)等终端设备上,本申请实施例对终端设备的具体类型不作任何限制。
例如,所述终端设备可以是WLAN中的站点(STAION,ST),可以是蜂窝电话、无绳电话、会话启动协议(Session InitiationProtocol,SIP)电话、无线本地环路(WirelessLocal Loop,WLL)站、个人数字处理(Personal Digital Assistant,PDA)设备、具有无线通信功能的手持设备、计算设备或连接到无线调制解调器的其它处理设备、车载设备、车联网终端、电脑、膝上型计算机、手持式通信设备、手持式计算设备、卫星无线设备、无线调制解调器卡、电视机顶盒(set top box,STB)、用户驻地设备(customer premise equipment,CPE)和/或用于在无线系统上进行通信的其它设备以及下一代通信系统,例如,5G网络中的移动终端或者未来演进的公共陆地移动网络(Public Land Mobile Network,PLMN)网络中的移动终端等。
作为示例而非限定,当所述终端设备为可穿戴设备时,该可穿戴设备还可以是应用穿戴式技术对日常穿戴进行智能化设计、开发出可以穿戴的设备的总称,如眼镜、手套、手表、服饰及鞋等。可穿戴设备即直接穿在身上,或是整合到用户的衣服或配件的一种便携式设备。可穿戴设备不仅仅是一种硬件设备,更是通过软件支持以及数据交互、云端交互来实现强大的功能。广义穿戴式智能设备包括功能全、尺寸大、可不依赖智能手机实现完整或者部分的功能,如智能手表或智能眼镜等,以及只专注于某一类应用功能,需要和其它设备如智能手机配合使用,如各类进行体征监测的智能手环、智能首饰等。
图1是本申请实施例提供的语音合成方法所涉及的一种语音合成场景的场景示意图,参见图1,该语音合成场景中可以包括终端设备110,终端设备110可以获取待转换文本,并对待转换文本对应的每个音素的音素时长进行调整,从而可以基于同一待转换文本生成不同的语音数据。
在一种可能的实现方式中,终端设备110可以获取待转换文本,并将待转换文本分别输入预先训练的文本分析模型和时长模型,得到待转换文本对应的每个音素的平均发音时长、发音时长方差和发音时长分布密度,从而可以基于正态分布规则,根据每个音素的平均发音时长、发音时长方差和发音时长分布密度,确定每个音素的时长范围。
之后,终端设备110可以再基于每个音素的时长范围,结合每个音素在待转换文本中对应的文本语义信息,和/或,预先存储的包括用户年龄信息和性格信息的用户数据,将时长范围中的任一时长确定为各个音素的音素时长,从而根据各个音素时长和待转换文本,生成语音数据。
其中,平均发音时长用于表示针对同一音素的各个音素时长的平均值,该发音时长方差用于表示同一音素的各个音素时长与平均发音时长的差异程度,发音时长分布密度用于表示同一音素对应不同音素时长的概率。
另外,音素是根据语音的自然属性划分出来的最小语音单位,依据音节里的发音动作来分析,一个动作构成一个音素。例如,以拼音的发音规则为例,可以将每个文字的拼音所对应的声母作为一个音素,拼音的韵母作为另一个音素,如“天气”中,文字“天”对应的音素可以包括“t”和“ian”,文字“气”对应的音素可以包括“q”和“i”。
需要说明的是,在实际应用中,参见图2,语音合成场景中还可以包括服务器120,终端设备110可以与服务器120连接,使得服务器120可以对待转换文本进行转换,得到基于同一待转换文本的不同语音数据。
在生成语音数据的过程中,终端设备110可以先向服务器120发送待转换文本,服务器120可以根据待转换文本确定各个音素的时长范围,再结合待转换文本的语义信息以及预先存储的用户数据,可以从各个时长范围确定各个音素的音素时长,从而可以根据各个音素时长以及待转换文本生成语音数据,并向终端设备110发送生成的语音数据,则终端设备110可以接收并播放服务器120生成的语音数据。
为了简便说明,下述实施例仅是以语音合成场景中包括终端设备110,不包括服务器120为例进行说明,而在实际应用中,不但可以通过终端设备110转换得到语音数据,还可以通过服务器120转换得到语音数据,本申请实施例对此不做限定。
图3是本申请实施例提供的一种终端设备的结构框图。参考图3,终端设备可以包括处理器310,外部存储器接口320,内部存储器321,通用串行总线(universal serialbus,USB)接口330,充电管理模块340,电源管理模块341,电池342,天线1,天线2,移动通信模块350,无线通信模块360,音频模块370,扬声器370A,受话器370B,麦克风370C,耳机接口370D,传感器模块380,按键390,马达391,指示器392,摄像头393,显示屏394,以及用户标识模块(subscriber identification module,SIM)卡接口395等。其中传感器模块380可以包括压力传感器380A,陀螺仪传感器380B,气压传感器380C,磁传感器380D,加速度传感器380E,距离传感器380F,接近光传感器380G,指纹传感器380H,温度传感器380J,触摸传感器380K,环境光传感器380L,骨传导传感器380M等。
可以理解的是,本发明实施例示意的结构并不构成对终端设备的具体限定。在本申请另一些实施例中,终端设备可以包括比图示更多或更少的部件,或者组合某些部件,或者拆分某些部件,或者不同的部件布置。图示的部件可以以硬件,软件或软件和硬件的组合实现。
处理器310可以包括一个或多个处理单元,例如:处理器310可以包括应用处理器(application processor,AP),调制解调处理器,图形处理器(graphics processingunit,GPU),图像信号处理器(image signal processor,ISP),控制器,存储器,视频编解码器,数字信号处理器(digital signal processor,DSP),基带处理器,和/或神经网络处理器(neural-network processing unit,NPU)等。其中,不同的处理单元可以是独立的器件,也可以集成在一个或多个处理器中。
其中,控制器可以是终端设备的神经中枢和指挥中心。控制器可以根据指令操作码和时序信号,产生操作控制信号,完成取指令和执行指令的控制。
处理器310中还可以设置存储器,用于存储指令和数据。在一些实施例中,处理器310中的存储器为高速缓冲存储器。该存储器可以保存处理器310刚用过或循环使用的指令或数据。如果处理器310需要再次使用该指令或数据,可从所述存储器中直接调用。避免了重复存取,减少了处理器310的等待时间,因而提高了系统的效率。
在一些实施例中,处理器310可以包括一个或多个接口。接口可以包括集成电路(inter-integrated circuit,I2C)接口,集成电路内置音频(inter-integrated circuitsound,I2S)接口,脉冲编码调制(pulse code modulation,PCM)接口,通用异步收发传输器(universal asynchronous receiver/transmitter,UART)接口,移动产业处理器接口(mobile industry processor interface,MIPI),通用输入输出(general-purposeinput/output,GPIO)接口,用户标识模块(subscriber identity module,SIM)接口,和/或通用串行总线(universal serial bus,USB)接口等。
I2C接口是一种双向同步串行总线,包括一根串行数据线(serial data line,SDA)和一根串行时钟线(derail clock line,SCL)。在一些实施例中,处理器310可以包含多组I2C总线。处理器310可以通过不同的I2C总线接口分别耦合触摸传感器380K,充电器,闪光灯,摄像头393等。例如:处理器310可以通过I2C接口耦合触摸传感器380K,使处理器310与触摸传感器380K通过I2C总线接口通信,实现终端设备的触摸功能。
I2S接口可以用于音频通信。在一些实施例中,处理器310可以包含多组I2S总线。处理器310可以通过I2S总线与音频模块370耦合,实现处理器310与音频模块370之间的通信。在一些实施例中,音频模块370可以通过I2S接口向无线通信模块360传递音频信号,实现通过蓝牙耳机接听电话的功能。
PCM接口也可以用于音频通信,将模拟信号抽样,量化和编码。在一些实施例中,音频模块370与无线通信模块360可以通过PCM总线接口耦合。在一些实施例中,音频模块370也可以通过PCM接口向无线通信模块360传递音频信号,实现通过蓝牙耳机接听电话的功能。所述I2S接口和所述PCM接口都可以用于音频通信。
UART接口是一种通用串行数据总线,用于异步通信。该总线可以为双向通信总线。它将要传输的数据在串行通信与并行通信之间转换。在一些实施例中,UART接口通常被用于连接处理器310与无线通信模块360。例如:处理器310通过UART接口与无线通信模块360中的蓝牙模块通信,实现蓝牙功能。在一些实施例中,音频模块370可以通过UART接口向无线通信模块360传递音频信号,实现通过蓝牙耳机播放音乐的功能。
MIPI接口可以被用于连接处理器310与显示屏394,摄像头393等外围器件。MIPI接口包括摄像头串行接口(camera serial interface,CSI),显示屏串行接口(displayserial interface,DSI)等。在一些实施例中,处理器310和摄像头393通过CSI接口通信,实现终端设备的拍摄功能。处理器310和显示屏394通过DSI接口通信,实现终端设备的显示功能。
GPIO接口可以通过软件配置。GPIO接口可以被配置为控制信号,也可被配置为数据信号。在一些实施例中,GPIO接口可以用于连接处理器310与摄像头393,显示屏394,无线通信模块360,音频模块370,传感器模块380等。GPIO接口还可以被配置为I2C接口,I2S接口,UART接口,MIPI接口等。
USB接口330是符合USB标准规范的接口,具体可以是Mini USB接口,Micro USB接口,USB Type C接口等。USB接口330可以用于连接充电器为终端设备充电,也可以用于终端设备与外围设备之间传输数据。也可以用于连接耳机,通过耳机播放音频。该接口还可以用于连接其他电子设备,例如AR设备等。
可以理解的是,本发明实施例示意的各模块间的接口连接关系,只是示意性说明,并不构成对终端设备的结构限定。在本申请另一些实施例中,终端设备也可以采用上述实施例中不同的接口连接方式,或多种接口连接方式的组合。
充电管理模块340用于从充电器接收充电输入。其中,充电器可以是无线充电器,也可以是有线充电器。在一些有线充电的实施例中,充电管理模块340可以通过USB接口330接收有线充电器的充电输入。在一些无线充电的实施例中,充电管理模块340可以通过终端设备的无线充电线圈接收无线充电输入。充电管理模块340为电池342充电的同时,还可以通过电源管理模块341为电子设备供电。
电源管理模块341用于连接电池342,充电管理模块340与处理器310。电源管理模块341接收电池342和/或充电管理模块340的输入,为处理器310,内部存储器321,外部存储器,显示屏394,摄像头393,和无线通信模块360等供电。电源管理模块341还可以用于监测电池容量,电池循环次数,电池健康状态(漏电,阻抗)等参数。在其他一些实施例中,电源管理模块341也可以设置于处理器310中。在另一些实施例中,电源管理模块341和充电管理模块340也可以设置于同一个器件中。
终端设备的无线通信功能可以通过天线1,天线2,移动通信模块350,无线通信模块360,调制解调处理器以及基带处理器等实现。
天线1和天线2用于发射和接收电磁波信号。终端设备中的每个天线可用于覆盖单个或多个通信频带。不同的天线还可以复用,以提高天线的利用率。例如:可以将天线1复用为无线局域网的分集天线。在另外一些实施例中,天线可以和调谐开关结合使用。
移动通信模块350可以提供应用在终端设备上的包括2G/3G/4G/5G等无线通信的解决方案。移动通信模块350可以包括至少一个滤波器,开关,功率放大器,低噪声放大器(low noise amplifier,LNA)等。移动通信模块350可以由天线1接收电磁波,并对接收的电磁波进行滤波,放大等处理,传送至调制解调处理器进行解调。移动通信模块350还可以对经调制解调处理器调制后的信号放大,经天线1转为电磁波辐射出去。在一些实施例中,移动通信模块350的至少部分功能模块可以被设置于处理器310中。在一些实施例中,移动通信模块350的至少部分功能模块可以与处理器310的至少部分模块被设置在同一个器件中。
调制解调处理器可以包括调制器和解调器。其中,调制器用于将待发送的低频基带信号调制成中高频信号。解调器用于将接收的电磁波信号解调为低频基带信号。随后解调器将解调得到的低频基带信号传送至基带处理器处理。低频基带信号经基带处理器处理后,被传递给应用处理器。应用处理器通过音频设备(不限于扬声器370A,受话器370B等)输出声音信号,或通过显示屏394显示图像或视频。在一些实施例中,调制解调处理器可以是独立的器件。在另一些实施例中,调制解调处理器可以独立于处理器310,与移动通信模块350或其他功能模块设置在同一个器件中。
无线通信模块360可以提供应用在终端设备上的包括无线局域网(wirelesslocal area networks,WLAN)(如无线保真(wireless fidelity,Wi-Fi)网络),蓝牙(bluetooth,BT),全球导航卫星系统(global navigation satellite system,GNSS),调频(frequency modulation,FM),近距离无线通信技术(near field communication,NFC),红外技术(infrared,IR)等无线通信的解决方案。无线通信模块360可以是集成至少一个通信处理模块的一个或多个器件。无线通信模块360经由天线2接收电磁波,将电磁波信号调频以及滤波处理,将处理后的信号发送到处理器310。无线通信模块360还可以从处理器310接收待发送的信号,对其进行调频,放大,经天线2转为电磁波辐射出去。
在一些实施例中,终端设备的天线1和移动通信模块350耦合,天线2和无线通信模块360耦合,使得终端设备可以通过无线通信技术与网络以及其他设备通信。所述无线通信技术可以包括全球移动通讯系统(global system for mobile communications,GSM),通用分组无线服务(general packet radio service,GPRS),码分多址接入(code divisionmultiple access,CDMA),宽带码分多址(wideband code division multiple access,WCDMA),时分码分多址(time-division code division multiple access,TD-SCDMA),长期演进(long term evolution,LTE),BT,GNSS,WLAN,NFC,FM,和/或IR技术等。所述GNSS可以包括全球卫星定位系统(global positioning system,GPS),全球导航卫星系统(globalnavigation satellite system,GLONASS),北斗卫星导航系统(beidou navigationsatellite system,BDS),准天顶卫星系统(quasi-zenith satellite system,QZSS)和/或星基增强系统(satellite based augmentation systems,SBAS)。
终端设备通过GPU,显示屏394,以及应用处理器等实现显示功能。GPU为图像处理的微处理器,连接显示屏394和应用处理器。GPU用于执行数学和几何计算,用于图形渲染。处理器310可包括一个或多个GPU,其执行程序指令以生成或改变显示信息。
显示屏394用于显示图像,视频等。显示屏394包括显示面板。显示面板可以采用液晶显示屏(liquid crystal display,LCD),有机发光二极管(organic light-emittingdiode,OLED),有源矩阵有机发光二极体或主动矩阵有机发光二极体(active-matrixorganic light emitting diode的,AMOLED),柔性发光二极管(flex light-emittingdiode,FLED),Miniled,MicroLed,Micro-oLed,量子点发光二极管(quantum dot lightemitting diodes,QLED)等。在一些实施例中,终端设备可以包括1个或N个显示屏394,N为大于1的正整数。
终端设备可以通过ISP,摄像头393,视频编解码器,GPU,显示屏394以及应用处理器等实现拍摄功能。
ISP用于处理摄像头393反馈的数据。例如,拍照时,打开快门,光线通过镜头被传递到摄像头感光元件上,光信号转换为电信号,摄像头感光元件将所述电信号传递给ISP处理,转化为肉眼可见的图像。ISP还可以对图像的噪点,亮度,肤色进行算法优化。ISP还可以对拍摄场景的曝光,色温等参数优化。在一些实施例中,ISP可以设置在摄像头393中。
摄像头393用于捕获静态图像或视频。物体通过镜头生成光学图像投射到感光元件。感光元件可以是电荷耦合器件(charge coupled device,CCD)或互补金属氧化物半导体(complementary metal-oxide-semiconductor,CMOS)光电晶体管。感光元件把光信号转换成电信号,之后将电信号传递给ISP转换成数字图像信号。ISP将数字图像信号输出到DSP加工处理。DSP将数字图像信号转换成标准的RGB,YUV等格式的图像信号。在一些实施例中,终端设备可以包括1个或N个摄像头393,N为大于1的正整数。
数字信号处理器用于处理数字信号,除了可以处理数字图像信号,还可以处理其他数字信号。例如,当终端设备在频点选择时,数字信号处理器用于对频点能量进行傅里叶变换等。
视频编解码器用于对数字视频压缩或解压缩。终端设备可以支持一种或多种视频编解码器。这样,终端设备可以播放或录制多种编码格式的视频,例如:动态图像专家组(movingpicture experts group,MPEG)1,MPEG2,MPEG3,MPEG4等。
NPU为神经网络(neural-network,NN)计算处理器,通过借鉴生物神经网络结构,例如借鉴人脑神经元之间传递模式,对输入信息快速处理,还可以不断的自学习。通过NPU可以实现终端设备的智能认知等应用,例如:图像识别,人脸识别,语音识别,文本理解等。
外部存储器接口320可以用于连接外部存储卡,例如Micro SD卡,实现扩展终端设备的存储能力。外部存储卡通过外部存储器接口320与处理器310通信,实现数据存储功能。例如将音乐,视频等文件保存在外部存储卡中。
内部存储器321可以用于存储计算机可执行程序代码,所述可执行程序代码包括指令。处理器310通过运行存储在内部存储器321的指令,从而执行终端设备的各种功能应用以及数据处理。内部存储器321可以包括存储程序区和存储数据区。其中,存储程序区可存储操作系统,至少一个功能所需的应用程序(比如声音播放功能,图像播放功能等)等。存储数据区可存储终端设备使用过程中所创建的数据(比如音频数据,电话本等)等。此外,内部存储器321可以包括高速随机存取存储器,还可以包括非易失性存储器,例如至少一个磁盘存储器件,闪存器件,通用闪存存储器(universal flash storage,UFS)等。
终端设备可以通过音频模块370,扬声器370A,受话器370B,麦克风370C,耳机接口370D,以及应用处理器等实现音频功能。例如音乐播放,录音等。
音频模块370用于将数字音频信息转换成模拟音频信号输出,也用于将模拟音频输入转换为数字音频信号。音频模块370还可以用于对音频信号编码和解码。在一些实施例中,音频模块370可以设置于处理器310中,或将音频模块370的部分功能模块设置于处理器310中。
扬声器370A,也称“喇叭”,用于将音频电信号转换为声音信号。终端设备可以通过扬声器370A收听音乐,或收听免提通话。
受话器370B,也称“听筒”,用于将音频电信号转换成声音信号。当终端设备接听电话或语音信息时,可以通过将受话器370B靠近人耳接听语音。
麦克风370C,也称“话筒”,“传声器”,用于将声音信号转换为电信号。当拨打电话或发送语音信息时,用户可以通过人嘴靠近麦克风370C发声,将声音信号输入到麦克风370C。终端设备可以设置至少一个麦克风370C。在另一些实施例中,终端设备可以设置两个麦克风370C,除了采集声音信号,还可以实现降噪功能。在另一些实施例中,终端设备还可以设置三个,四个或更多麦克风370C,实现采集声音信号,降噪,还可以识别声音来源,实现定向录音功能等。
耳机接口370D用于连接有线耳机。耳机接口370D可以是USB接口330,也可以是3.5mm的开放移动电子设备平台(open mobile terminal platform,OMTP)标准接口,美国蜂窝电信工业协会(cellular telecommunications industry association of the USA,CTIA)标准接口。
压力传感器380A用于感受压力信号,可以将压力信号转换成电信号。在一些实施例中,压力传感器380A可以设置于显示屏394。压力传感器380A的种类很多,如电阻式压力传感器,电感式压力传感器,电容式压力传感器等。电容式压力传感器可以是包括至少两个具有导电材料的平行板。当有力作用于压力传感器380A,电极之间的电容改变。终端设备根据电容的变化确定压力的强度。当有触摸操作作用于显示屏394,终端设备根据压力传感器380A检测所述触摸操作强度。终端设备也可以根据压力传感器380A的检测信号计算触摸的位置。在一些实施例中,作用于相同触摸位置,但不同触摸操作强度的触摸操作,可以对应不同的操作指令。例如:当有触摸操作强度小于第一压力阈值的触摸操作作用于短消息应用图标时,执行查看短消息的指令。当有触摸操作强度大于或等于第一压力阈值的触摸操作作用于短消息应用图标时,执行新建短消息的指令。
陀螺仪传感器380B可以用于确定终端设备的运动姿态。在一些实施例中,可以通过陀螺仪传感器380B确定终端设备围绕三个轴(即,x,y和z轴)的角速度。陀螺仪传感器380B可以用于拍摄防抖。示例性的,当按下快门,陀螺仪传感器380B检测终端设备抖动的角度,根据角度计算出镜头模组需要补偿的距离,让镜头通过反向运动抵消终端设备的抖动,实现防抖。陀螺仪传感器380B还可以用于导航,体感游戏场景。
气压传感器380C用于测量气压。在一些实施例中,终端设备通过气压传感器380C测得的气压值计算海拔高度,辅助定位和导航。
磁传感器380D包括霍尔传感器。终端设备可以利用磁传感器380D检测翻盖皮套的开合。在一些实施例中,当终端设备是翻盖机时,终端设备可以根据磁传感器380D检测翻盖的开合。进而根据检测到的皮套的开合状态或翻盖的开合状态,设置翻盖自动解锁等特性。
加速度传感器380E可检测终端设备在各个方向上(一般为三轴)加速度的大小。当终端设备静止时可检测出重力的大小及方向。还可以用于识别电子设备姿态,应用于横竖屏切换,计步器等应用。
距离传感器380F,用于测量距离。终端设备可以通过红外或激光测量距离。在一些实施例中,拍摄场景,终端设备可以利用距离传感器380F测距以实现快速对焦。
接近光传感器380G可以包括例如发光二极管(LED)和光检测器,例如光电二极管。发光二极管可以是红外发光二极管。终端设备通过发光二极管向外发射红外光。终端设备使用光电二极管检测来自附近物体的红外反射光。当检测到充分的反射光时,可以确定终端设备附近有物体。当检测到不充分的反射光时,终端设备可以确定终端设备附近没有物体。终端设备可以利用接近光传感器380G检测用户手持终端设备贴近耳朵通话,以便自动熄灭屏幕达到省电的目的。接近光传感器380G也可用于皮套模式,口袋模式自动解锁与锁屏。
环境光传感器380L用于感知环境光亮度。终端设备可以根据感知的环境光亮度自适应调节显示屏394亮度。环境光传感器380L也可用于拍照时自动调节白平衡。环境光传感器380L还可以与接近光传感器380G配合,检测终端设备是否在口袋里,以防误触。
指纹传感器380H用于采集指纹。终端设备可以利用采集的指纹特性实现指纹解锁,访问应用锁,指纹拍照,指纹接听来电等。
温度传感器380J用于检测温度。在一些实施例中,终端设备利用温度传感器380J检测的温度,执行温度处理策略。例如,当温度传感器380J上报的温度超过阈值,终端设备执行降低位于温度传感器380J附近的处理器的性能,以便降低功耗实施热保护。在另一些实施例中,当温度低于另一阈值时,终端设备对电池342加热,以避免低温导致终端设备异常关机。在其他一些实施例中,当温度低于又一阈值时,终端设备对电池342的输出电压执行升压,以避免低温导致的异常关机。
触摸传感器380K,也称“触控面板”。触摸传感器380K可以设置于显示屏394,由触摸传感器380K与显示屏394组成触摸屏,也称“触控屏”。触摸传感器380K用于检测作用于其上或附近的触摸操作。触摸传感器可以将检测到的触摸操作传递给应用处理器,以确定触摸事件类型。可以通过显示屏394提供与触摸操作相关的视觉输出。在另一些实施例中,触摸传感器380K也可以设置于终端设备的表面,与显示屏394所处的位置不同。
骨传导传感器380M可以获取振动信号。在一些实施例中,骨传导传感器380M可以获取人体声部振动骨块的振动信号。骨传导传感器380M也可以接触人体脉搏,接收血压跳动信号。在一些实施例中,骨传导传感器380M也可以设置于耳机中,结合成骨传导耳机。音频模块370可以基于所述骨传导传感器380M获取的声部振动骨块的振动信号,解析出语音信号,实现语音功能。应用处理器可以基于所述骨传导传感器380M获取的血压跳动信号解析心率信息,实现心率检测功能。
按键390包括开机键,音量键等。按键390可以是机械按键。也可以是触摸式按键。终端设备可以接收按键输入,产生与终端设备的用户设置以及功能控制有关的键信号输入。
马达391可以产生振动提示。马达391可以用于来电振动提示,也可以用于触摸振动反馈。例如,作用于不同应用(例如拍照,音频播放等)的触摸操作,可以对应不同的振动反馈效果。作用于显示屏394不同区域的触摸操作,马达391也可对应不同的振动反馈效果。不同的应用场景(例如:时间提醒,接收信息,闹钟,游戏等)也可以对应不同的振动反馈效果。触摸振动反馈效果还可以支持自定义。
指示器392可以是指示灯,可以用于指示充电状态,电量变化,也可以用于指示消息,未接来电,通知等。
SIM卡接口395用于连接SIM卡。SIM卡可以通过插入SIM卡接口395,或从SIM卡接口395拔出,实现和终端设备的接触和分离。终端设备可以支持1个或N个SIM卡接口,N为大于1的正整数。SIM卡接口395可以支持Nano SIM卡,Micro SIM卡,SIM卡等。同一个SIM卡接口395可以同时插入多张卡。所述多张卡的类型可以相同,也可以不同。SIM卡接口395也可以兼容不同类型的SIM卡。SIM卡接口395也可以兼容外部存储卡。终端设备通过SIM卡和网络交互,实现通话以及数据通信等功能。在一些实施例中,终端设备采用eSIM,即:嵌入式SIM卡。eSIM卡可以嵌在终端设备中,不能和终端设备分离。
图4是本申请实施例提供的一种语音合成方法的示意性流程图,作为示例而非限定,该方法可以应用于上述终端设备中,参见图4,该方法包括:
步骤401、确定待转换文本对应的每个音素的时长范围。
终端设备在生成语音数据的过程中,可以确定待转换文本对应的每个音素的音素时长,并结合待转换文本的语言特征,通过预先设置的声学模型和声码器生成语音数据。而且,在确定音素时长的过程中,可以先确定每个音素的时长范围,以便在后续步骤中,可以基于时长范围选取不同的音素时长,以提高生成的语音数据的自然度和多样性。
在具体实现时,终端设备可以先对待转换文本中的各个音素进行提取,再基于预先训练的模型获取每个音素的发音信息,之后可以根据每个音素的发音信息确定每个音素的时长范围,则参见图5,本步骤401可以包括:步骤401a和步骤401b。
401a、确定待转换文本对应的每个音素的平均发音时长、发音时长方差和发音时长分布密度。
终端设备可以将待转换文本输入预先训练的模型,通过模型对待转换文本的各个音素进行提取,还可以对待转换文本进行分析,确定每个音素的发音信息,如发音时长、发音时长方差和发音时长分布密度,以便在后续步骤中,可以根据发音信息确定每个音素的发音范围。
在通过模型提取音素的过程中,终端设备可以先对待转换文本进行拆分,得到按顺序排列的多个文字,再基于每个文字的发音规则,提取得到每个文字的至少一个音素,在对每个文字的音素提取完毕后,即可得到待转换文本的多个音素。
例如,基于拼音的发音规则,终端设备可以将每个文字对应的声母和韵母分别作为该文字的音素,若待转换文本为“今天天气好晴朗”,则该待转换文本的多个音素可以分别为“j”、“in”、“t”、“ian”、“t”、“ian”、“q”、“i”、“h”、“ao”、“q”、“ing”、“l”和“ang”。
另外,由于每个音素的发音信息中可以包括不同类型的信息,因而终端设备可以将待转换文本输入不同的模型,以得到不同的发音信息。例如,终端设备可以将待转换文本输入预先设置的文本分析模型,得到文本分析模型输出的每个音素的发音时长分布密度,其中,该文本分析模型可以为深度神经网络(deep neural networks,DNN)模型。和/或,终端设备可以将待转换文本输入预先设置的时长模型,得到时长模型输出的每个音素的平均发音时长和发音时长方差。
401b、根据每个音素的平均发音时长、发音时长方差和发音时长分布密度,确定每个音素的时长范围。
终端设备在得到每个音素的发音信息后,可以根据预先设置的计算公式,将发音信息所包括的不同参数代入计算公式,从而可以得到每个音素的时长范围。例如,可以假设每个音素的音素时长服从正态分布,则可以根据每个音素的平均发音时长、发音时长方差和发音时长分布密度,通过正态分布算法,采用正态分布的公式进行计算,确定每个音素的时长范围。
例如,参见图6,确定第x个音素的平均发音时长为t(x),发音时长方差为std2(x),发音时长分布密度为p(x),则符合公式p(x)=N(t(x),std2(x)),通过对x进行求解得到x1和x2,若x1小于x2,则可以将区间[x1,x2]作为第x个音素的时长范围。
步骤402、将每个音素的时长范围中的任一时长,确定为相对应的音素的音素时长。
终端设备在得到每个音素的时长范围后,可以基于待转换文本中每个音素的文本语义信息、用户性格年龄、或者随机确定每个音素的音素时长,使得终端设备可以基于相同的待转换文本生成不同的语音数据。
可选的,对于每个音素,终端设备可以根据音素对应的文字在待转换文本中的位置,获取音素的文本语义信息,再基于音素的时长范围和音素的文本语义信息,确定音素的音素时长。
在一种可能的实现方式中,对于每个音素,终端设备可以先确定该音素所对应的文字,再在待转换文本中,确定该文字所在的语句,分析确定该语句的语义,并结合待转换文字中全部语句所表达的语义,确定该音素的文本语义信息。之后,终端设备可以根据该文本语义信息,从时长范围对应的多个时长中,选取该音素的音素时长。
例如,音素的文本语义信息表示开心的情绪,则可以从时长范围中选取短促的时长作为该音素的音素时长。
或者,终端设备可以获取用户数据,该用户数据可以包括用户的年龄信息和性格信息,则终端设备可以根据用户的年龄和性格,从各个音素的时长范围中确定每个音素的音素时长,从而生成与用户相匹配的语音信息。
在一种可能的实现方式中,终端设备可以获取预先存储的用户数据,或者向服务器请求用户数据,并根据用户数据确定与用户相匹配的语音类型,然后根据用户的语音类型,从时长范围对应的多个时长中,选取该音素的音素时长。
例如,用户数据指示用户为中年人、性格沉稳,则与该用户相匹配的语音类型可以为慢条斯理的类型,相应的可以选取悠长的时长作为该音素的音素时长。
需要说明的是,在实际应用中,用户数据还可以包括其他表示用户说话类型的信息,例如用户数据可以包括表示用户情绪的搜索数据,还可以包括表示用户最近是否购买商品的购物数据等,本申请实施例对此不做限定。
另外,若终端设备可以同时获取文本语义信息和用户数据,则可以进一步按照文本语义信息和用户数据分别对应的权重,确定每个音素的音素时长。但是,若终端设备既无法获取文本语义信息,也无法获取用户数据,则可以按照待转换文本中的各个音素均服从正态分布的情况,按照正态分布的规则确定各个音素的音素时长,本申请实施例对确定音素时长的方式不做限定。
步骤403、根据待转换文本和每个音素的音素时长,生成语音数据。
终端设备在合成语音数据的过程中,可以采用不同的方式,基于每个音素的音素时长生成语音数据。例如,终端设备可以采用参数法、拼接法或端到端的方式,生成语音数据,而无论采用哪种方式生成语音数据,均可以按照上述方式确定待转换文本对应的每个音素的音素时长。
以参数法为例,终端设备可以先按照上述方式确定各个音素的音素时长,再将音素时长和提取的待转换文本的语言特征输入声学模型,得到用于生成语音数据的基频等参数,再通过声码器根据基频等参数生成语音数据。
采用拼接法或端到端的方式生成语音数据的过程,与上述参数法生成语音数据的过程类似,在此不再赘述。
综上所述,本申请实施例提供的语音合成方法,通过确定待转换文本对应的每个音素的时长范围,再将每个音素的时长范围中的任一时长,确定为相对应的音素的音素时长,最后根据待转换文本和每个音素的音素时长,生成语音数据。针对相同待转换文本的多个语音数据,多个语音数据中同一音素的音素时长可能基于相同的时长范围取值不同,则可以合成得到多种不同的语音数据,避免了针对同一待转换文本每次合成得到相同的语音数据,降低了语音合成的机械性,提高了语音合成的自然度和多样性。
而且,通过确定每个音素的时长范围,并在时长范围内选取音素的时长,使得音素时长的取值不会产生巨大偏差,进而可以避免音素时长的取值过大或过小造成语音数据异常的情况,提高了语音合成的稳定性。
应理解,上述实施例中各步骤的序号的大小并不意味着执行顺序的先后,各过程的执行顺序应以其功能和内在逻辑确定,而不应对本申请实施例的实施过程构成任何限定。
对应于上文实施例所述的语音合成方法,图7是本申请实施例提供的一种语音合成装置的结构框图,为了便于说明,仅示出了与本申请实施例相关的部分。
参照图7,该装置包括:
范围确定模块701,用于确定待转换文本对应的每个音素的时长范围;
时长确定模块702,用于将该时长范围中的任一时长确定为每个该音素的音素时长;
生成模块703,用于根据该待转换文本和每个音素的音素时长,生成语音数据。
可选的,该范围确定模块701,具体用于确定该待转换文本对应的每个该音素的平均发音时长、发音时长方差和发音时长分布密度;根据每个该音素的平均发音时长、发音时长方差和发音时长分布密度,确定每个该音素的时长范围。
可选的,该范围确定模块701,还具体用于将该待转换文本输入预先设置的文本分析模型,得到该文本分析模型输出的每个该音素的发音时长分布密度;将该待转换文本输入预先设置的时长模型,得到该时长模型输出的每个该音素的平均发音时长和发音时长方差。
可选的,该范围确定模块701,还具体用于根据每个音素的平均发音时长、发音时长方差和发音时长分布密度,通过正态分布算法确定每个该音素的时长范围。
可选的,该时长确定模块702,具体用于对于每个该音素,根据该音素对应的文字在该待转换文本中的位置,获取该音素的文本语义信息;基于该音素的时长范围和该音素的文本语义信息,确定该音素的音素时长。
可选的,该时长确定模块702,具体用于获取用户数据,该用户数据包括用户的年龄信息和性格信息;基于该音素的时长范围和该用户数据,确定每个该音素的音素时长。
可选的,该生成模块703,具体用于根据该待转换文本和每个该音素的音素时长,通过预先设置的声学模型和声码器生成该语音数据。
综上所述,本申请实施例提供的语音合成装置,通过确定待转换文本对应的每个音素的时长范围,再将每个音素的时长范围中的任一时长,确定为相对应的音素的音素时长,最后根据待转换文本和每个音素的音素时长,生成语音数据。针对相同待转换文本的多个语音数据,多个语音数据中同一音素的音素时长可能基于相同的时长范围取值不同,则可以合成得到多种不同的语音数据,避免了针对同一待转换文本每次合成得到相同的语音数据,降低了语音合成的机械性,提高了语音合成的自然度和多样性。
所属领域的技术人员可以清楚地了解到,为了描述的方便和简洁,仅以上述各功能单元、模块的划分进行举例说明,实际应用中,可以根据需要而将上述功能分配由不同的功能单元、模块完成,即将所述装置的内部结构划分成不同的功能单元或模块,以完成以上描述的全部或者部分功能。实施例中的各功能单元、模块可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个单元中,上述集成的单元既可以采用硬件的形式实现,也可以采用软件功能单元的形式实现。另外,各功能单元、模块的具体名称也只是为了便于相互区分,并不用于限制本申请的保护范围。上述系统中单元、模块的具体工作过程,可以参考前述方法实施例中的对应过程,在此不再赘述。
在上述实施例中,对各个实施例的描述都各有侧重,某个实施例中没有详述或记载的部分,可以参见其它实施例的相关描述。
本领域普通技术人员可以意识到,结合本文中所公开的实施例描述的各示例的单元及算法步骤,能够以电子硬件、或者计算机软件和电子硬件的结合来实现。这些功能究竟以硬件还是软件方式来执行,取决于技术方案的特定应用和设计约束条件。专业技术人员可以对每个特定的应用来使用不同方法来实现所描述的功能,但是这种实现不应认为超出本申请的范围。
在本申请所提供的实施例中,应该理解到,所揭露的装置和方法,可以通过其它的方式实现。例如,以上所描述的系统实施例仅仅是示意性的,例如,所述模块或单元的划分,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式,例如多个单元或组件可以结合或者可以集成到另一个系统,或一些特征可以忽略,或不执行。另一点,所显示或讨论的相互之间的耦合或直接耦合或通讯连接可以是通过一些接口,装置或单元的间接耦合或通讯连接,可以是电性,机械或其它的形式。
所述作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部单元来实现本实施例方案的目的。
另外,在本申请各个实施例中的各功能单元可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个单元中。上述集成的单元既可以采用硬件的形式实现,也可以采用软件功能单元的形式实现。
所述集成的单元如果以软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可读取存储介质中。基于这样的理解,本申请实现上述实施例方法中的全部或部分流程,可以通过计算机程序来指令相关的硬件来完成,所述的计算机程序可存储于一计算机可读存储介质中,该计算机程序在被处理器执行时,可实现上述各个方法实施例的步骤。其中,所述计算机程序包括计算机程序代码,所述计算机程序代码可以为源代码形式、对象代码形式、可执行文件或某些中间形式等。所述计算机可读介质至少可以包括:能够将计算机程序代码携带到终端设备的任何实体或装置、记录介质、计算机存储器、只读存储器(ROM,Read-Only Memory)、随机存取存储器(RAM,Random Access Memory)、电载波信号、电信信号以及软件分发介质。例如U盘、移动硬盘、磁碟或者光盘等。在某些司法管辖区,根据立法和专利实践,计算机可读介质不可以是电载波信号和电信信号。
以上所述实施例仅用以说明本申请的技术方案,而非对其限制;尽管参照前述实施例对本申请进行了详细的说明,本领域的普通技术人员应当理解:其依然可以对前述各实施例所记载的技术方案进行修改,或者对其中部分技术特征进行等同替换;而这些修改或者替换,并不使相应技术方案的本质脱离本申请各实施例技术方案的精神和范围,均应包含在本申请的保护范围之内。

Claims (10)

1.一种语音合成方法,其特征在于,包括:
确定待转换文本对应的每个音素的时长范围;
将每个所述音素的时长范围中的任一时长,确定为相对应的音素的音素时长;
根据所述待转换文本和每个所述音素的音素时长,生成语音数据。
2.如权利要求1所述的语音合成方法,其特征在于,所述确定待转换文本对应的每个音素的时长范围,包括:
确定所述待转换文本对应的每个所述音素的平均发音时长、发音时长方差和发音时长分布密度;
根据每个所述音素的平均发音时长、发音时长方差和发音时长分布密度,确定每个所述音素的时长范围。
3.如权利要求2所述的语音合成方法,其特征在于,所述确定所述待转换文本对应的每个所述音素的平均发音时长、发音时长方差和发音时长分布密度,包括:
将所述待转换文本输入预先设置的文本分析模型,得到所述文本分析模型输出的每个所述音素的发音时长分布密度;
将所述待转换文本输入预先设置的时长模型,得到所述时长模型输出的每个所述音素的平均发音时长和发音时长方差。
4.如权利要求2所述的语音合成方法,其特征在于,所述根据每个所述音素的平均发音时长、发音时长方差和发音时长分布密度,确定每个所述音素的时长范围,包括:
根据每个所述音素的平均发音时长、发音时长方差和发音时长分布密度,通过正态分布算法确定每个所述音素的时长范围。
5.如权利要求1所述的语音合成方法,其特征在于,所述将每个所述音素的时长范围中的任一时长,确定为相对应的音素的音素时长,包括:
对于每个所述音素,根据所述音素对应的文字在所述待转换文本中的位置,获取所述音素的文本语义信息;
基于所述音素的时长范围和所述音素的文本语义信息,确定所述音素的音素时长。
6.如权利要求1所述的语音合成方法,其特征在于,所述将每个所述音素的时长范围中的任一时长,确定为相对应的音素的音素时长,包括:
获取用户数据,所述用户数据包括用户的年龄信息和性格信息;
基于所述音素的时长范围和所述用户数据,确定每个所述音素的音素时长。
7.如权利要求1至6任一所述的语音合成方法,其特征在于,所述根据所述待转换文本和每个所述音素的音素时长,生成语音数据,包括:
根据所述待转换文本和每个所述音素的音素时长,通过预先设置的声学模型和声码器生成所述语音数据。
8.一种语音合成装置,其特征在于,包括:
范围确定模块,用于确定待转换文本对应的每个音素的时长范围;
时长确定模块,用于将每个所述音素的时长范围中的任一时长,确定为相对应的音素的音素时长;
生成模块,用于根据所述待转换文本和每个所述音素的音素时长,生成语音数据。
9.一种终端设备,包括存储器、处理器以及存储在所述存储器中并可在所述处理器上运行的计算机程序,其特征在于,所述处理器执行所述计算机程序时实现如权利要求1至7任一项所述的方法。
10.一种计算机可读存储介质,所述计算机可读存储介质存储有计算机程序,其特征在于,所述计算机程序被处理器执行时实现如权利要求1至7任一项所述的方法。
CN202010456116.1A 2020-05-26 2020-05-26 语音合成方法及装置 Pending CN113793589A (zh)

Priority Applications (2)

Application Number Priority Date Filing Date Title
CN202010456116.1A CN113793589A (zh) 2020-05-26 2020-05-26 语音合成方法及装置
PCT/CN2021/080403 WO2021238338A1 (zh) 2020-05-26 2021-03-12 语音合成方法及装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202010456116.1A CN113793589A (zh) 2020-05-26 2020-05-26 语音合成方法及装置

Publications (1)

Publication Number Publication Date
CN113793589A true CN113793589A (zh) 2021-12-14

Family

ID=78745521

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202010456116.1A Pending CN113793589A (zh) 2020-05-26 2020-05-26 语音合成方法及装置

Country Status (2)

Country Link
CN (1) CN113793589A (zh)
WO (1) WO2021238338A1 (zh)

Citations (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4470150A (en) * 1982-03-18 1984-09-04 Federal Screw Works Voice synthesizer with automatic pitch and speech rate modulation
KR19980047261A (ko) * 1996-12-14 1998-09-15 양승택 음성 합성기의 지속시간 모델링 장치 및 이를 이용한 모델링 방법
US6064960A (en) * 1997-12-18 2000-05-16 Apple Computer, Inc. Method and apparatus for improved duration modeling of phonemes
US20020107688A1 (en) * 1998-03-10 2002-08-08 Mitsuru Otsuka Speech synthesizing method and apparatus
JP2006215110A (ja) * 2005-02-01 2006-08-17 Nippon Hoso Kyokai <Nhk> 継続時間長生成装置及び継続時間長生成プログラム
WO2008083689A1 (en) * 2007-01-14 2008-07-17 The Engineering Company For The Development Of Computer Systems ; (Rdi) System and method for qur'an recitation rules
JP2013015829A (ja) * 2011-06-07 2013-01-24 Yamaha Corp 音声合成装置
CN106601226A (zh) * 2016-11-18 2017-04-26 中国科学院自动化研究所 音素时长预测建模方法及音素时长预测方法
CN107705782A (zh) * 2017-09-29 2018-02-16 百度在线网络技术(北京)有限公司 用于确定音素发音时长的方法和装置
CN108597492A (zh) * 2018-05-02 2018-09-28 百度在线网络技术(北京)有限公司 语音合成方法和装置
CN109192224A (zh) * 2018-09-14 2019-01-11 科大讯飞股份有限公司 一种语音评测方法、装置、设备及可读存储介质
CN109599092A (zh) * 2018-12-21 2019-04-09 秒针信息技术有限公司 一种音频合成方法及装置
CN109841202A (zh) * 2019-01-04 2019-06-04 平安科技(深圳)有限公司 基于语音合成的节奏生成方法、装置及终端设备
CN109979428A (zh) * 2019-04-02 2019-07-05 北京地平线机器人技术研发有限公司 音频生成方法和装置、存储介质、电子设备
CN110459200A (zh) * 2019-07-05 2019-11-15 深圳壹账通智能科技有限公司 语音合成方法、装置、计算机设备及存储介质
US20200027440A1 (en) * 2017-03-23 2020-01-23 D&M Holdings, Inc. System Providing Expressive and Emotive Text-to-Speech
CN110992927A (zh) * 2019-12-11 2020-04-10 广州酷狗计算机科技有限公司 音频生成方法、装置、计算机可读存储介质及计算设备

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0580791A (ja) * 1991-09-20 1993-04-02 Hitachi Ltd 音声規則合成装置および方法
CN107481715B (zh) * 2017-09-29 2020-12-08 百度在线网络技术(北京)有限公司 用于生成信息的方法和装置

Patent Citations (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4470150A (en) * 1982-03-18 1984-09-04 Federal Screw Works Voice synthesizer with automatic pitch and speech rate modulation
KR19980047261A (ko) * 1996-12-14 1998-09-15 양승택 음성 합성기의 지속시간 모델링 장치 및 이를 이용한 모델링 방법
US6064960A (en) * 1997-12-18 2000-05-16 Apple Computer, Inc. Method and apparatus for improved duration modeling of phonemes
US20020107688A1 (en) * 1998-03-10 2002-08-08 Mitsuru Otsuka Speech synthesizing method and apparatus
JP2006215110A (ja) * 2005-02-01 2006-08-17 Nippon Hoso Kyokai <Nhk> 継続時間長生成装置及び継続時間長生成プログラム
WO2008083689A1 (en) * 2007-01-14 2008-07-17 The Engineering Company For The Development Of Computer Systems ; (Rdi) System and method for qur'an recitation rules
JP2013015829A (ja) * 2011-06-07 2013-01-24 Yamaha Corp 音声合成装置
CN106601226A (zh) * 2016-11-18 2017-04-26 中国科学院自动化研究所 音素时长预测建模方法及音素时长预测方法
US20200027440A1 (en) * 2017-03-23 2020-01-23 D&M Holdings, Inc. System Providing Expressive and Emotive Text-to-Speech
CN107705782A (zh) * 2017-09-29 2018-02-16 百度在线网络技术(北京)有限公司 用于确定音素发音时长的方法和装置
CN108597492A (zh) * 2018-05-02 2018-09-28 百度在线网络技术(北京)有限公司 语音合成方法和装置
CN109192224A (zh) * 2018-09-14 2019-01-11 科大讯飞股份有限公司 一种语音评测方法、装置、设备及可读存储介质
CN109599092A (zh) * 2018-12-21 2019-04-09 秒针信息技术有限公司 一种音频合成方法及装置
CN109841202A (zh) * 2019-01-04 2019-06-04 平安科技(深圳)有限公司 基于语音合成的节奏生成方法、装置及终端设备
CN109979428A (zh) * 2019-04-02 2019-07-05 北京地平线机器人技术研发有限公司 音频生成方法和装置、存储介质、电子设备
CN110459200A (zh) * 2019-07-05 2019-11-15 深圳壹账通智能科技有限公司 语音合成方法、装置、计算机设备及存储介质
CN110992927A (zh) * 2019-12-11 2020-04-10 广州酷狗计算机科技有限公司 音频生成方法、装置、计算机可读存储介质及计算设备

Also Published As

Publication number Publication date
WO2021238338A1 (zh) 2021-12-02

Similar Documents

Publication Publication Date Title
CN111742539B (zh) 一种语音控制命令生成方法及终端
CN114242037A (zh) 一种虚拟人物生成方法及其装置
CN113467735A (zh) 图像调整方法、电子设备及存储介质
WO2022022319A1 (zh) 一种图像处理方法、电子设备、图像处理系统及芯片系统
CN113838490A (zh) 视频合成方法、装置、电子设备及存储介质
CN113542580B (zh) 去除眼镜光斑的方法、装置及电子设备
CN111147667A (zh) 一种熄屏控制方法及电子设备
CN111176465A (zh) 使用状态识别方法、装置、存储介质与电子设备
CN112783330A (zh) 电子设备的操作方法、装置和电子设备
CN113395382A (zh) 一种设备间数据交互的方法及相关设备
CN112651510A (zh) 模型更新方法、工作节点及模型更新系统
WO2022062884A1 (zh) 文字输入方法、电子设备及计算机可读存储介质
CN112256868A (zh) 零指代消解方法、训练零指代消解模型的方法及电子设备
CN114466238A (zh) 帧解复用方法、电子设备及存储介质
CN111460942B (zh) 接近检测方法及装置、计算机可读介质及终端设备
CN109285563B (zh) 在线翻译过程中的语音数据处理方法及装置
CN114095602A (zh) 索引显示方法、电子设备及计算机可读存储介质
WO2022007757A1 (zh) 跨设备声纹注册方法、电子设备及存储介质
CN115393676A (zh) 手势控制优化方法、装置、终端和存储介质
WO2021238338A1 (zh) 语音合成方法及装置
CN113793590B (zh) 语音合成方法及装置
CN115249364A (zh) 一种目标用户确定方法、电子设备和计算机可读存储介质
CN113380240A (zh) 语音交互方法和电子设备
CN114079694B (zh) 控件标注方法及装置
CN111586236A (zh) 电子设备标记方法及装置、计算机可读介质及电子设备

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination