CN100337104C - 语音合成装置、方法和记录语音合成程序的记录介质 - Google Patents
语音合成装置、方法和记录语音合成程序的记录介质 Download PDFInfo
- Publication number
- CN100337104C CN100337104C CNB2005100074542A CN200510007454A CN100337104C CN 100337104 C CN100337104 C CN 100337104C CN B2005100074542 A CNB2005100074542 A CN B2005100074542A CN 200510007454 A CN200510007454 A CN 200510007454A CN 100337104 C CN100337104 C CN 100337104C
- Authority
- CN
- China
- Prior art keywords
- mentioned
- information
- phoneme
- resonance peak
- tonequality
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Images
Classifications
-
- E—FIXED CONSTRUCTIONS
- E02—HYDRAULIC ENGINEERING; FOUNDATIONS; SOIL SHIFTING
- E02D—FOUNDATIONS; EXCAVATIONS; EMBANKMENTS; UNDERGROUND OR UNDERWATER STRUCTURES
- E02D29/00—Independent underground or underwater structures; Retaining walls
- E02D29/02—Retaining or protecting walls
- E02D29/025—Retaining or protecting walls made up of similar modular elements stacked without mortar
-
- E—FIXED CONSTRUCTIONS
- E02—HYDRAULIC ENGINEERING; FOUNDATIONS; SOIL SHIFTING
- E02D—FOUNDATIONS; EXCAVATIONS; EMBANKMENTS; UNDERGROUND OR UNDERWATER STRUCTURES
- E02D29/00—Independent underground or underwater structures; Retaining walls
- E02D29/02—Retaining or protecting walls
- E02D29/0258—Retaining or protecting walls characterised by constructional features
- E02D29/0266—Retaining or protecting walls characterised by constructional features made up of preformed elements
-
- A—HUMAN NECESSITIES
- A01—AGRICULTURE; FORESTRY; ANIMAL HUSBANDRY; HUNTING; TRAPPING; FISHING
- A01G—HORTICULTURE; CULTIVATION OF VEGETABLES, FLOWERS, RICE, FRUIT, VINES, HOPS OR SEAWEED; FORESTRY; WATERING
- A01G9/00—Cultivation in receptacles, forcing-frames or greenhouses; Edging for beds, lawn or the like
- A01G9/02—Receptacles, e.g. flower-pots or boxes; Glasses for cultivating flowers
- A01G9/022—Pots for vertical horticulture
- A01G9/025—Containers and elements for greening walls
-
- E—FIXED CONSTRUCTIONS
- E02—HYDRAULIC ENGINEERING; FOUNDATIONS; SOIL SHIFTING
- E02D—FOUNDATIONS; EXCAVATIONS; EMBANKMENTS; UNDERGROUND OR UNDERWATER STRUCTURES
- E02D2600/00—Miscellaneous
- E02D2600/20—Miscellaneous comprising details of connection between elements
Landscapes
- Engineering & Computer Science (AREA)
- Environmental & Geological Engineering (AREA)
- Life Sciences & Earth Sciences (AREA)
- General Life Sciences & Earth Sciences (AREA)
- Mining & Mineral Resources (AREA)
- Paleontology (AREA)
- Civil Engineering (AREA)
- General Engineering & Computer Science (AREA)
- Structural Engineering (AREA)
- Telephonic Communication Services (AREA)
- Document Processing Apparatus (AREA)
- Electrophonic Musical Instruments (AREA)
Abstract
本发明提供一种即使在对硬件资源有较大限制的环境下,也能够生成各种音质的合成语音的语音合成装置。在具有一种音素数据的语音合成装置(100)中,设置音质变更部(250)和音质数据库(260)。音质变更部(250)将从文本解析部(220)提供的音质数据编号作为检索关键字,对音质数据库(260)进行检索,取得音质参数。音质变更部(250)根据所取得的音质参数,对由音素数据取得部(230)取得的音素数据所表示的各音素的音质进行变更。
Description
技术领域
本发明涉及一种根据所输入的文本信息而生成合成语音的语音合成装置、语音合成方法和记录语音合成程序的记录介质。
背景技术
图17是表示根据所输入的文本信息生成合成语音的现有语音合成装置100结构的图。
输入部110在从未图示的操作部等接收了「こんにちわ」等文本信息之后,将该文本信息提供给文本解析部120。文本解析部120利用单词辞典等,对所接收到的文本信息进行单词解析、语法解析等,生成表示「こ」、「ん」、「に」、「ち」、「わ」这些短音节单位的各音素的音素信息,以及表示各音素长度、高度、强度的韵律信息,然后提供给语音合成部130。语音合成部130根据从文本解析部120提供的各音素信息,从音素数据库140中取得短音节单位的语音数据(以下称为音素数据)。然后,语音合成部130按照韵律信息,对所取得的各音素数据进行适当加工·连接等,生成合成语音信号,然后作为合成语音而从扬声器等输出。用户通过聆听从语音合成装置输出的合成语音,可以确认所输入的文本信息的内容。
但是,在上述音素数据库中,仅登录了特定朗读者(例如男性朗读者)发出的1种音素数据。因此,例如在利用具有上述特定朗读者音质的合成语音输出年轻女性等喜欢使用的文本信息(「ちよう…」或「…みたいなあ」等文本信息)的情况下,会出现用户感觉音质和语音内容之间有差异感的问题。
为了解决上述问题,这样的技术被提出,即在音素数据库中预先登录多种音素数据(例如男性、女性、儿童、老人等不同的音素数据),按照所输入的文本信息的内容等来选择最适宜的音素数据,然后利用所选择的音素数据来生成合成语音(例如,参照专利文献1)。
专利文献1:特开2000-339137号公报(第3~4页)
发明内容
根据专利文献1所公开的技术,确实可以获得合适的合成语音,但为了实现合成语音,必须在音素数据库中登录多种音素数据。但是会出现这样的问题,即在对存储器和CPU等硬件资源有较大限制的移动终端等中无法安装这样的多种音素数据,其结果是移动终端等无法生成各种音质的合成语音。
本发明就是鉴于上述问题而提出的,其目的在于,提供一种即使在对硬件资源有较大限制的环境下,也能生成各种音质的合成语音的语音合成装置、语音合成方法和记录语音合成程序的记录介质。
为了解决上述问题,本发明的语音合成装置,其特征在于,具有:获取单元,从被输入语音合成装置的文本信息,获取用于指定合成语音的音素的音素指定信息和用于指定该合成语音的音质的音质指定信息;第一存储单元,用于存储表示各音素的多个音素数据;第二存储单元,用于存储多种音素数据加工信息,这些音素数据加工信息是用于变更上述各音素的音质的信息,它们表示音素数据的加工内容;第一抽取单元,用于从上述第一存储单元抽取出与上述音素指定信息所表示的音素对应的音素数据;第二抽取单元,用于从上述第二存储单元抽取出与上述音质指定信息所表示的音质对应的音素数据加工信息;以及生成单元,用于根据上述抽取出的音素数据加工信息,对上述抽取出的音素数据进行加工,生成上述合成语音。
本发明的语音合成装置,优选上述各音素数据包含表示音素的共振峰的共振峰信息,上述音素数据加工信息包含表示上述共振峰的变更内容的共振峰变更信息,上述生成单元根据上述共振峰变更信息,对上述共振峰信息进行变更,然后根据对变更后的各共振峰进行加法运算后的信号波形,生成上述合成语音。
本发明的语音合成装置,优选上述共振峰信息由成对的共振峰频率和共振峰幅度构成,在上述共振峰变更信息中,包含有用于表示上述共振峰频率的变更内容的共振峰频率变更信息和用于表示上述共振峰幅度的变更内容的共振峰幅度变更信息,上述生成单元根据上述共振峰频率变更信息和上述共振峰幅度变更信息,分别对上述音素数据所表示的音素的各共振峰频率和各共振峰幅度进行变更,由此得到上述变更后的各共振峰。
本发明的语音合成装置,优选上述获取单元从上述文本信息中除了获取上述音素指定信息和上述音质指定信息之外,还获取用于指定上述合成语音的音高的音高指定信息,上述生成单元向对上述变更后的各共振峰进行加法运算之后的信号波形赋予上述音高指定信息所表示的音高,由此获得上述合成语音。
本发明的语音合成装置,优选上述文本信息包含上述音质指定信息,上述获取单元从上述文本信息中获取上述音质指定信息。
本发明的语音合成装置,优选上述获取单元从上述文本信息中抽取出关键字,然后根据所抽取出的关键字,来判定适合于上述文本信息的音质。
本发明还提供一种语音合成方法,其特征在于,具有以下步骤:获取步骤,从被输入语音合成装置的文本信息,获取用于指定合成语音的音素的音素指定信息和用于指定该合成语音的音质的音质指定信息;第一抽取步骤,从第一存储单元抽取出与上述音素指定信息所表示的音素对应的音素数据,该第一存储单元用于存储表示各音素的多个音素数据;第二抽取步骤,用于从第二存储单元抽取出与上述音质指定信息所表示的音质对应的音素数据加工信息,该第二存储单元用于存储多种音素数据加工信息,这些音素数据加工信息是用于变更上述各音素的音质的信息,它们表示音素数据的加工内容;以及生成步骤,用于根据上述抽取出的音素数据加工信息,对上述抽取出的音素数据进行加工,生成上述合成语音。
发明的效果
如上所述,根据本发明,即使在对硬件资源有较大限制的环境下,也能够生成各种音质的合成语音。
附图说明
图1是表示本实施方式的语音合成装置的功能性结构的框图。
图2是例示出该实施方式的文本信息的图。
图3是例示出该实施方式的音素数据库的登录内容的图。
图4是例示出该实施方式的音素数据结构的图。
图5是用于说明包含在该实施方式的音素数据中的各帧信息的图。
图6是例示出该实施方式的音质数据库登录内容的图。
图7是表示该实施方式的音质参数的一个结构例的图。
图8是表示该实施方式的音质变更处理的流程图。
图9是例示出该实施方式的映射函数的图。
图10是表示该实施方式的男性的音素分析结果的图。
图11是表示该实施方式的女性音素的分析结果的图。
图12是例示出该实施方式的振荡表的图。
图13是例示出从该实施方式的振荡表中读出的振荡值与时间的关系的图。
图14是用于说明该实施方式的共振峰频率振荡的图。
图15是用于说明该实施方式的音高赋予处理的图。
图16是例示出该实施方式的被进行了音质变更处理和音高赋予处理后的特定共振峰的共振峰波形的图。
图17是表示现有的语音合成装置的功能性结构的图。
具体实施方式
以下参照附图,对本发明的实施方式进行说明。
A.本实施方式
图1是表示本实施方式的语音合成装置100的功能性结构的图。在本实施方式中,假定语音合成装置100安装在移动电话或PHS(Personal Handyphone System)、PDA(Personal DigitalAssistance)等对硬件资源有较大限制的移动终端中的情况,但本发明不限于此,可以应用在各种电子设备中。
输入部210将经由未图示的操作部等输入的文本信息提供给文本解析部220。图2是例示了文本信息的图。
文本内容信息是用于表示应作为合成语音输出的文本的内容(例如「こんにちわ」)的信息。另外,在图2中示出了仅由平假名表示的文本内容信息,但文本内容信息不限于平假名,也可以是由汉字、罗马字、片假名等各种文字和各种记号表示的信息。
音质数据编号(音质指定信息)是用于分别识别后述的多个音质参数(音素数据加工信息)的唯一编号(图2中的K1~Kn)。在本实施方式中,通过适当选择·利用该音质参数,可以根据特定朗读者(在本实施方式中假定为「男性朗读者」)发出的一种音素数据,获得各种音质的合成语音(后面详细说明)。
音高(pitch)信息(音高指定信息)是用于给合成语音赋予音高(换句话说,指定合成语音的音高)的信息,它由指定「C(哆)」~「B(唏)」等音阶的信息构成(参照图2)。
文本解析部220对从输入部210提供的文本信息进行解析,然后将解析结果分别提供给音素数据取得部230、音质变更部250、语音信号生成部270。具体地讲,在被提供了图2所示的文本信息之后,文本解析部220首先将「こんにちわ」这样的文本内容信息分解为「こ」、「ん」、「に」、「ち」、「わ」这样的短音节单位的音素。所谓的短音节,是指表示读音单位,基本由1个辅音和1个元音构成的音节。
文本解析部(获取单元)220在按照这样的方式将文本内容信息分解为短音节单位的音素之后,生成用于指定这些合成语音的各音素的音素信息(音素指定信息),然后依次提供给音素数据取得部230。接下来,文本解析部220从文本信息中分别取得音质数据编号(例如K3)、音高信息(例如C(哆)),然后将所取得的音质数据编号提供给音质变更部250,而将所取得的音高信息提供给语音信号生成部270。
音素数据取得部(第一抽取单元)230将从文本解析部220提供的音素信息作为关键字,对音素数据库240进行检索,由此取得与音素信息所表示的音素对应的音素数据。图3是例示出音素数据库240的登录内容的图。如图3所示,在音素数据库(第一存储单元)240中,除了登录有表示一个男性朗读者的短音节单位的各音素(「あ」、「い」、…「ん」等)的一系列音素数据1~m之外,还登录有该一系列音素数据的数量(以下称为登录音素数据数量)等。
图4是例示出表示某一音素(例如「こ」等)的音素数据的结构图,图5是用于说明包含在音素数据中的各帧信息的图。另外,图5的A示出了上述男性朗读者朗读某一音素(例如「こ」等)时的语音波形vw与各帧FR之间的关系,图5的B、图5的C和图5的D分别示出了对于第1帧FR1、第2帧FR2、第n帧FRn的共振峰分析结果。
如图4所示,音素数据由第1帧信息~第n帧信息构成。各帧信息具有对对应的各帧Fr(参照图5)进行共振峰分析而得到的第1共振峰信息~第k共振峰信息,以及用于表示各帧FR的语音是浊音(voiced sound)还是清音(voiceless sound)的浊音/清音判别标记(例如,“1”=浊音,“0”=清音)。
构成各帧信息的第1帧信息~第k帧信息由表示对应共振峰的、成对的共振峰频率F和共振峰幅度A构成(参照图5的B~图5的D)。例如,构成第1帧信息的第1共振峰信息~第k共振峰信息分别由(F11,A11)、(F12,A12)、…(F1k,A1k)这些成对的共振峰频率和共振峰幅度构成(参照图5的B),……,构成第n帧信息的第1共振峰信息~第k共振峰信息分别由(Fn1,An1)、(Fn2,An2)、…(Fnk,Ank)这些成对的共振峰频率和共振峰幅度构成(参照图5的D)。
音素数据取得部230在根据从文本解析部220提供的各音素信息(表示「こ」、「ん」、「に」、「ち」、「わ」等的各音素信息)取得对应的各音素数据之后,将这些音素数据提供给音质变更部250。
音质变更部250变更由音素数据取得部230取得的各音素数据所表示的音素的音质。具体地讲,音质变更部(第二抽取单元)250首先将文本解析部220提供的音质数据编号作为检索关键字,对音质数据库(第二存储单元)260进行检索,取得对应的音质参数。然后,音质变更部250根据所取得的音质参数,进行上述各音素的音质的变更。
图6是例示出音质数据库260的登录内容的图。
如图6所示,在音质数据库(第二存储单元)260中,作为用于变更上述各音素的音质的必要信息,存储有表示音素数据的加工内容的多种音质参数1~L,以及表示该音质参数的数量的登录数量信息。
图7是表示音质参数的一个结构例的图。
如图7所示,音质参数(音素数据加工信息)具有用于确定该参数的音质数据编号、以及表示是否变更合成语音的性别的性别变更标记、表示第1~第k共振峰的变更内容的第1~第k共振峰变更信息。其中,在例如将上述性别变更标记设定为“1”的情况下,由音质变更部250进行用于变更合成语音的性别的处理(以下称为性别变更处理),而在将上述性别变更标记设定为“0”的情况下,不进行上述性别变更处理(后面详细说明)。另外,在本实施方式中,由于假定男性朗读者发出的1种音素数据,所以在将该性别变更标记设定为“1”的情况下,合成语音的特征从男性特征变更为女性特征。另一方面,在性别变更标记被设定为“0”的情况下,合成语音的特征还保持男性的特征而不变更。
另一方面,各共振峰变更信息具有用于选择后述的各共振峰基本波形(正弦波等)的基本波形选择信息、表示各共振峰频率的变更内容的共振峰频率变更信息、以及表示各共振峰幅度的变更内容的共振峰幅度变更信息。
在各共振峰频率变更信息和各共振峰幅度变更信息中,分别包含有表示共振峰频率的变换量、振荡速度、振荡幅度的信息以及表示共振峰幅度的变换量、振荡速度、振荡幅度的信息。关于共振峰频率和共振峰幅度的变换量、振荡速度、振荡幅度,将在后面详细说明。
图8是表示由音质变更部250执行的音质变更处理的流程图。
音质变更部(生成单元)250在从文本解析部220接收到音质数据编号之后,将该音质数据编号作为检索关键字,对音质数据库260进行检索,取得对应的音质参数(步骤S1)。然后,音质变更部250参照包含在所取得的音质参数中的性别变更标记,判断是否应变更合成语音的性别(即是否应执行性别变更处理)(步骤S2)。在例如性别变更标记被设定为“0”,从而音质变更部250判断不应进行性别变更时,跳过步骤S3,进入步骤S4,而在例如性别变更标记被设定为“1”,音质变更部250判断应进行性别变更时,进入步骤S3,执行性别变更处理。
图9是例示出存储在存储单元(图示省略)中的性别变更处理用的映射函数mf的图,图10和图11是表示男性和女性分别朗读同一音素(例如「あ」等)时的分析结果的图。另外,图9所示的映射函数mf的横轴表示输入频率(被输入音质变更部250的共振峰频率),纵轴表示输出频率(从音质变更部250输出的频率变更后的共振峰频率),fmax表示可输入的共振峰频率的最大值。此外,图10和图11所示的分析图表g1、g2的横轴表示频率,纵轴表示幅度。
通过比较图10和图11所示的分析图表g1、g2可知,男性音素的第1共振峰频率fm1~第4共振峰频率fm4比女性音素的第1共振峰频率ff1~第4共振峰频率ff4低。因此,在本实施方式中,如图9所示,利用位于直线n1(输入频率=输出频率,参照虚线部分)上侧的映射函数mf(参照实线部分),来将具有男性特征的音素变更为具有女性特征的音素。
具体地讲,音质变更部250利用图9所示的映射函数mf,将所输入的音素数据的各共振峰频率向频率高的方向变换。由此,所输入的男性音素的各共振峰频率被变更为具有女性特征的共振峰频率。另外,在输入女性音素的共振峰频率的情况下,与上述情况相反,可以利用位于直线n1下侧的映射函数mf′(参照图9中点划线所示的部分)。
音质变更部250在执行了上述性别变更处理,进入步骤S4之后,按照各共振峰变更信息所表示的各共振峰频率的变换量,对各共振峰频率进行变换。进而,音质变更部250使变换后的各共振峰频率振荡,执行频率振荡处理(步骤S5)。
图12是例示出存储在存储单元(图示省略)中的、在频率振荡处理中使用的振荡表TA的图,图13是例示出从该振荡表TA中读出的振荡值和时间之间的关系的图。在本实施方式中,为了说明方便,假定使用同一振荡表TA来使上述各共振峰频率振荡的情况,但也可以对于每个共振峰频率使用振荡值等不同的振荡表。
振荡表TA是按照时间顺序登录振荡值的表。音质变更部250按照各共振峰变更信息所表示的共振峰频率的振荡速度,来控制在振荡表TA中登录的振荡值的读出速度(或者跳过(即不读出)振荡值的数量),另一方面,执行频率振荡处理,即将所读出的各振荡值乘以各共振峰变更信息所表示的共振峰频率的振荡幅度。由此,可以获得使图14所示的共振峰频率fm以振荡速度sp、振荡幅度lv振荡的波形。在本实施方式中,为了减少共振峰频率的振荡幅度的运算量,例示了利用上述振荡表TA的方式,但也可以不利用振荡表TA,而是利用规定的函数来求出共振峰频率的振荡幅度。
音质变更部250在执行了频率振荡处理之后,进入步骤S6,按照各共振峰变更信息所表示的各共振峰幅度的变换量,来对各共振峰幅度进行变换。进而,音质变更部250使变换后的各共振峰幅度振荡,执行幅度振荡处理(步骤S7),然后结束处理。另外,对于在幅度振荡处理中使用的振荡表以及利用该振荡表来使各共振峰幅度振荡情况下的动作,由于可以与使上述各共振峰频率振荡的情况大致同样地说明,这里省略其说明。此外,对于共振峰幅度的振荡,可以使用与共振峰频率的振荡同样的振荡表来使其振荡,但也可以使用与共振峰频率的振荡不同的振荡表来使其振荡。
音质变更部(生成单元)250在根据所取得的音质参数(音素数据加工信息)而对各音素的音质进行变更(即对音素数据进行加工)之后,将每个共振峰的基本波形选择信息、各共振峰频率和各共振峰幅度提供给语音信号生成部270。
语音信号生成部270在接收到从音质变更部250提供的基本波形选择信息之后,从波形数据库280中取得该基本波形选择信息所表示的波形数据。该基本波形选择信息所表示的基本波形对于每个共振峰可以不同,例如可以使频率低的共振峰的基本波形为正弦波,而使表现个性的频率高的共振峰的基本波形为正弦波以外的波形(例如矩形波或锯齿波等)等。当然,也可以不利用多种基本波形,而是仅利用单一的基本波形(例如正弦波)。
语音信号生成部(生成单元)270在按照这样的方式选择了各波形数据之后,利用所选择的各波形数据、各共振峰频率、各共振峰幅度,生成每个共振峰的共振峰波形。然后,语音信号生成部(生成单元)270对各共振峰波形进行加法运算,生成合成语音信号。然后,语音信号生成部270对所生成的合成语音信号进行赋予音高的处理(以下称为音高赋予处理),该音高是从文本解析部220提供的音高信息(音高指定信息)所表示的音高。
图15是用于说明音高赋予处理的图。在图15中,为了容易理解说明,例示出了对正弦波的合成语音信号赋予音高的情况。
语音信号生成部270根据从文本解析部220提供的音高信息,计算出图15所示的时间包络线tp的周期。其中,合成语音的音高依赖于时间包络线tp的周期,时间包络线tp的周期越长,音高越低,而时间包络线的周期越短,音高越高。语音信号生成部270在按照这样的方式求出时间包络线tp的周期之后,以所求得的时间包络线tp的周期,反复对时间包络线tp和合成语音信号进行乘法运算,由此得到被赋予了规定音高的合成语音信号。
图16是例示出进行了音质变更处理和音高赋予处理之后的特定共振峰的共振峰波形的图。如图16所示,与音质变更相关的处理(例如共振峰频率和共振峰幅度的振荡处理等)可以用帧周期(帧单位)进行控制。语音信号生成部(生成单元)270在得到上述的被赋予了规定音高的合成语音信号之后,将其作为合成语音向外部输出。由此,用户可以通过所希望的音质的合成语音来确认被输入语音合成装置100的文本(「こんにちわ」等)的内容。
如上所述,根据本实施方式的语音合成装置,由于可以在音质变更部中进行以共振峰为单位的各种音质变更处理,所以即使所存储的音素数据只有1种(即只有特定朗读者的音素数据),也能够进行各种音质的语音合成。
B.其他
在上述本实施方式中,例示出了在被输入语音合成装置100的文本信息中包含音高信息的情况(参照图2),但也可以在该文本信息中不包含音高信息。假定该情况,当预先在音素数据库240中登录替代音高信息(参照图3的括号中部分),而在文本信息中不包含音高信息时,可以利用该替代音高信息所表示的音高(例如C(哆)等)来作为合成语音的音高。此外,除了替代音高信息之外,还可以在音素数据库240中预先登录图4所示的每个帧的共振峰信息的数量(共振峰数量信息,参照图3的括号中部分)。
此外,为了通过CPU(或DSP)执行存储在ROM等存储器中的程序,以实现以上说明的语音合成装置100的各种功能,可以将上述程序记录在CD-ROM等记录介质上而颁布,或者可以经由互联网等通信网络来颁布。
在以上的说明中,语音变更处理是基于从文本信息中获得的音质数据编号而进行的,但也可以从所输入的文本信息中自动抽取出关键字,然后利用所抽取出的关键字,来参照预先设置在电子设备内的、具有每个音质的关键字的数据库,由此来自动判定适合于该文本信息的音质。
Claims (6)
1.一种语音合成装置,其特征在于,具有:
获取单元,从被输入语音合成装置的文本信息,获取用于指定合成语音的音素的音素指定信息和用于指定该合成语音的音质的音质指定信息;
第一存储单元,用于存储表示各音素的多个音素数据,这各个音素数据包含由成对的共振峰频率和共振峰幅度构成的共振峰信息;
第二存储单元,用于存储多个音素数据加工信息,这些音素数据加工信息是用于变更上述各音素的音质的信息,这各个音素数据加工信息包含表示共振峰频率的变更量的信息和表示共振峰幅度的变更量的信息;
第一抽取单元,用于从上述第一存储单元抽取出与上述音素指定信息所表示的音素对应的音素数据;
第二抽取单元,用于从上述第二存储单元抽取出与上述音质指定信息所表示的音质对应的音素数据加工信息;以及
生成单元,用于根据上述抽取出的音素数据加工信息中包含的表示共振峰的变更量的信息,变更上述抽取出的音素数据中包含的共振峰频率,且根据上述抽取出的音素数据加工信息中包含的表示共振峰幅度的变更量的信息,变更上述抽取出的音素数据的共振峰幅度,由此,对上述抽取出的音素数据进行加工,根据上述加工后的音素数据生成上述合成语音。
2.根据权利要求1所述的语音合成装置,其特征在于,
上述生成单元根据上述加工后的音素数据,生成每个共振峰的共振峰波形,并通过将生成的各共振峰波形相加,生成上述合成语音。
3.根据权利要求2所述的语音合成装置,其特征在于,
上述获取单元从上述文本信息中除了获取上述音素指定信息和上述音质指定信息之外,还获取用于指定上述合成语音的音高的音高指定信息,
上述生成单元还向将生成的各共振峰波形相加而成合成共振峰波形,赋予上述音高指定信息所表示的音高,由此生成上述合成语音。
4.根据权利要求1所述的语音合成装置,其特征在于,上述获取单元从上述文本信息中抽取出关键字,然后根据所抽取出的关键字,来判定适合于上述文本信息的音质。
5.根据权利要求1所述的语音合成装置,其特征在于,
该各音素数据加工信息,还包括表示共振峰频率的振荡速度的信息及表示共振峰频率的振荡幅度的信息,
前述生成单元,根据上述表示共振峰的振荡速度的信息及上述表示共振峰频率的振荡幅度的信息,将变更后的共振峰振荡。
6.一种语音合成方法,其特征在于,具有以下步骤:
获取步骤,从被输入语音合成装置的文本信息,获取用于指定合成语音的音素的音素指定信息和用于指定该合成语音的音质的音质指定信息;
第一抽取步骤,从第一存储单元抽取出与上述音素指定信息所表示的音素对应的音素数据,该第一存储单元用于存储表示各个音素的多个音素数据,这各音素数据包含由成对的共振峰频率和共振峰幅度构成的共振峰信息;
第二抽取步骤,用于从第二存储单元抽取出与上述音质指定信息所表示的音质对应的音素数据加工信息,该第二存储单元用于存储多个音素数据加工信息,这些音素数据加工信息是用于变更上述各音素的音质的信息,这各个音素数据加工信息包含表示共振峰频率的变更量的信息和表示共振峰幅度的变更量的信息;以及
生成步骤,用于根据上述抽取出的音素数据加工信息中包含的表示共振峰的变更量的信息,变更将上述抽取出的音素数据中包含的共振峰频率,且根据上述抽取出的音素数据加工信息中包含的表示共振峰幅度的变更量的信息,变更上述抽取出的音素数据的共振峰幅度,由此,对上述抽取出的音素数据进行加工,根据上述加工后的音素数据生成上述合成语音。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2004044852A JP2005234337A (ja) | 2004-02-20 | 2004-02-20 | 音声合成装置、音声合成方法、及び音声合成プログラム |
JP2004044852 | 2004-02-20 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN1658281A CN1658281A (zh) | 2005-08-24 |
CN100337104C true CN100337104C (zh) | 2007-09-12 |
Family
ID=35007713
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CNB2005100074542A Expired - Fee Related CN100337104C (zh) | 2004-02-20 | 2005-02-21 | 语音合成装置、方法和记录语音合成程序的记录介质 |
Country Status (4)
Country | Link |
---|---|
JP (1) | JP2005234337A (zh) |
KR (1) | KR100759172B1 (zh) |
CN (1) | CN100337104C (zh) |
TW (1) | TW200535235A (zh) |
Families Citing this family (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP5510852B2 (ja) * | 2010-07-20 | 2014-06-04 | 独立行政法人産業技術総合研究所 | 声色変化反映歌声合成システム及び声色変化反映歌声合成方法 |
JP6724932B2 (ja) * | 2018-01-11 | 2020-07-15 | ヤマハ株式会社 | 音声合成方法、音声合成システムおよびプログラム |
WO2020145353A1 (ja) * | 2019-01-10 | 2020-07-16 | グリー株式会社 | コンピュータプログラム、サーバ装置、端末装置及び音声信号処理方法 |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH08146965A (ja) * | 1994-09-14 | 1996-06-07 | Kawai Musical Instr Mfg Co Ltd | 楽音生成装置 |
CN1136198A (zh) * | 1995-01-13 | 1996-11-20 | 雅马哈株式会社 | 用于声信号处理数字信号处理装置 |
CN1208910A (zh) * | 1997-08-15 | 1999-02-24 | 英业达股份有限公司 | 语音合成中的语音规整方法 |
JP2000339137A (ja) * | 1999-05-31 | 2000-12-08 | Sanyo Electric Co Ltd | 電子メール受信システム |
CN1297561A (zh) * | 1999-03-25 | 2001-05-30 | 松下电器产业株式会社 | 语音合成系统与语音合成方法 |
CN1378199A (zh) * | 2001-03-26 | 2002-11-06 | 株式会社东芝 | 语音合成方法、语音合成装置及记录媒体 |
Family Cites Families (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH1078952A (ja) * | 1996-07-29 | 1998-03-24 | Internatl Business Mach Corp <Ibm> | 音声合成方法、音声合成装置、ハイパーテキストの制御方法及び制御装置 |
JP2002268699A (ja) * | 2001-03-09 | 2002-09-20 | Sony Corp | 音声合成装置及び音声合成方法、並びにプログラムおよび記録媒体 |
JP2003031936A (ja) * | 2001-07-19 | 2003-01-31 | Murata Mach Ltd | プリント基板 |
JP2003295882A (ja) * | 2002-04-02 | 2003-10-15 | Canon Inc | 音声合成用テキスト構造、音声合成方法、音声合成装置及びそのコンピュータ・プログラム |
EP1630791A4 (en) * | 2003-06-05 | 2008-05-28 | Kenwood Corp | SPEECH SYNTHESIS DEVICE, SPEECH SYNTHESIS METHOD, AND PROGRAM |
KR20050041749A (ko) * | 2003-10-31 | 2005-05-04 | 한국전자통신연구원 | 방송 음성 데이터를 이용한 영역 및 화자 의존 음성 합성장치, 음성 합성용 데이터베이스 구축방법 및 음성 합성서비스 시스템 |
-
2004
- 2004-02-20 JP JP2004044852A patent/JP2005234337A/ja active Pending
-
2005
- 2005-02-18 TW TW094104941A patent/TW200535235A/zh not_active IP Right Cessation
- 2005-02-21 CN CNB2005100074542A patent/CN100337104C/zh not_active Expired - Fee Related
- 2005-02-21 KR KR1020050014045A patent/KR100759172B1/ko not_active IP Right Cessation
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH08146965A (ja) * | 1994-09-14 | 1996-06-07 | Kawai Musical Instr Mfg Co Ltd | 楽音生成装置 |
CN1136198A (zh) * | 1995-01-13 | 1996-11-20 | 雅马哈株式会社 | 用于声信号处理数字信号处理装置 |
CN1208910A (zh) * | 1997-08-15 | 1999-02-24 | 英业达股份有限公司 | 语音合成中的语音规整方法 |
CN1297561A (zh) * | 1999-03-25 | 2001-05-30 | 松下电器产业株式会社 | 语音合成系统与语音合成方法 |
JP2000339137A (ja) * | 1999-05-31 | 2000-12-08 | Sanyo Electric Co Ltd | 電子メール受信システム |
CN1378199A (zh) * | 2001-03-26 | 2002-11-06 | 株式会社东芝 | 语音合成方法、语音合成装置及记录媒体 |
Also Published As
Publication number | Publication date |
---|---|
JP2005234337A (ja) | 2005-09-02 |
KR100759172B1 (ko) | 2007-09-14 |
KR20060043023A (ko) | 2006-05-15 |
CN1658281A (zh) | 2005-08-24 |
TWI300551B (zh) | 2008-09-01 |
TW200535235A (en) | 2005-11-01 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN1108603C (zh) | 声音合成方法和声音合成装置 | |
US9761219B2 (en) | System and method for distributed text-to-speech synthesis and intelligibility | |
CN1103971C (zh) | 语音识别计算机模块及基于音素的数字语音信号变换方法 | |
CN108364632B (zh) | 一种具备情感的中文文本人声合成方法 | |
CN1117344C (zh) | 声音合成方法和装置、用于声音合成的词典构筑方法 | |
US20080126093A1 (en) | Method, Apparatus and Computer Program Product for Providing a Language Based Interactive Multimedia System | |
CN105206257B (zh) | 一种声音转换方法及装置 | |
US6477495B1 (en) | Speech synthesis system and prosodic control method in the speech synthesis system | |
CN101075432A (zh) | 语音合成装置和方法 | |
JP6806662B2 (ja) | 音声合成システム、統計モデル生成装置、音声合成装置、音声合成方法 | |
CN1212601C (zh) | 一种嵌入式语音合成方法及系统 | |
JP2011221486A (ja) | 音声編集方法、装置及び音声合成方法 | |
CN1032391C (zh) | 基于波形编辑的汉语文字-语音转换方法及系统 | |
CN100337104C (zh) | 语音合成装置、方法和记录语音合成程序的记录介质 | |
CN1108572C (zh) | 汉语和日语的双向机械翻译机 | |
CN117597728A (zh) | 使用未完全训练的文本到语音模型的个性化和动态的文本到语音声音克隆 | |
CN1787072A (zh) | 基于韵律模型和参数选音的语音合成方法 | |
CN1190772C (zh) | 语音识别系统及用于语音识别系统的特征矢量集的压缩方法 | |
CN1801321B (zh) | 文字转语音的系统与方法 | |
CN1661673A (zh) | 语音合成装置、方法和记录语音合成程序的记录介质 | |
CN1251175C (zh) | 一种声音合成方法 | |
CN1238805C (zh) | 用于压缩语音库的方法和装置 | |
CN1811912A (zh) | 小音库语音合成方法 | |
CN114822489A (zh) | 文本转写方法和文本转写装置 | |
CN1664922A (zh) | 音高模型生成装置、方法和音高模型生成程序 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
C14 | Grant of patent or utility model | ||
GR01 | Patent grant | ||
CF01 | Termination of patent right due to non-payment of annual fee |
Granted publication date: 20070912 Termination date: 20150221 |
|
EXPY | Termination of patent right or utility model |