JPH1195796A - Voice synthesizing method - Google Patents
Voice synthesizing methodInfo
- Publication number
- JPH1195796A JPH1195796A JP9250857A JP25085797A JPH1195796A JP H1195796 A JPH1195796 A JP H1195796A JP 9250857 A JP9250857 A JP 9250857A JP 25085797 A JP25085797 A JP 25085797A JP H1195796 A JPH1195796 A JP H1195796A
- Authority
- JP
- Japan
- Prior art keywords
- speech
- unit
- voice
- section
- pitch
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Abstract
Description
【0001】[0001]
【発明の属する技術分野】本発明は、テキスト音声合成
に適した音声合成方法に係り、特に音韻記号列・ピッチ
・音韻継続時間長などの情報から合成音声を生成する音
声合成方法に関する。The present invention relates to a speech synthesis method suitable for text speech synthesis, and more particularly to a speech synthesis method for generating a synthesized speech from information such as a phoneme symbol string, a pitch, and a phoneme duration.
【0002】[0002]
【従来の技術】任意の文章から人工的に音声信号を作り
出すことをテキスト音声合成という。テキスト音声合成
は、一般的に言語処理部、音韻処理部および音声合成部
の3つの段階によって行われる。入力されたテキスト
は、まず言語処理部において形態素解析や構文解析など
が行われ、次に音韻処理部においてアクセントやイント
ネーシヨンの処理が行われて、音韻記号列・ピッチ・音
韻継続時間長などの情報が出力される。最後に、音声信
号合成部で音韻記号列・ピッチ・音韻継続時間長などの
情報から合成音声が生成される。2. Description of the Related Art Creating a speech signal artificially from an arbitrary sentence is called text-to-speech synthesis. Text-to-speech synthesis is generally performed in three stages: a language processing unit, a phonemic processing unit, and a speech synthesis unit. The input text is first subjected to morphological analysis and syntactic analysis in the language processing unit, and then to accent and intonation processing in the phonological processing unit, resulting in phonological symbol strings, pitch, phonological duration, etc. Is output. Finally, the speech signal synthesizer generates a synthesized speech from information such as a phoneme symbol string, pitch, and phoneme duration.
【0003】このようなテキスト音声合成に用いる音声
合成方法は、任意の音韻記号列を任意の韻律で音声合成
することが可能な方法でなければならない。任意の音韻
記号列を音声として合成することができる音声合成方式
は、LPC分析合成方式と波形編集方式に大別される。[0003] A speech synthesis method used for such text speech synthesis must be a method capable of synthesizing an arbitrary phoneme symbol string with an arbitrary prosody. A speech synthesis method capable of synthesizing an arbitrary phoneme symbol string as speech is roughly classified into an LPC analysis / synthesis method and a waveform editing method.
【0004】LPC分析合成方式は、例えば文献(1)
「伊藤、佐藤:“切り出し残差を用いた音声合成におけ
るピッチ制御法”、音響論2-7-18(1989-3)」に紹介され
ているように、音声信号にLPC分析を適用してLPC
スペクトルパラメータと残差信号を求め、残差信号のレ
ベルで韻律の制御および接続を行う方式である。この方
式は、LPC係数の操作で声質の変更が容易であり、ま
た合成のための音声素片辞書サイズが比較的小さくて済
むという利点がある反面、合成音声の音質はいわゆる鼻
にかかった明瞭性に欠けたものとなり、不十分なもので
あった。The LPC analysis / synthesis method is described in, for example, Reference (1).
Applying LPC analysis to speech signals as introduced in "Ito and Sato:" Pitch control method in speech synthesis using segmented residuals ", Acoustic Theory 2-7-18 (1989-3)" LPC
In this method, a spectrum parameter and a residual signal are obtained, and prosody is controlled and connected at the level of the residual signal. This method has the advantage that the voice quality can be easily changed by manipulating the LPC coefficients and that the size of the speech unit dictionary for synthesis is relatively small, but the sound quality of the synthesized voice is so-called nose-like It was lacking in nature and was insufficient.
【0005】一方、波形編集方式は、例えば文献(2)
「広川、箱田、佐藤:“波形編集型合成方式におけるス
ペクトル連続性を考慮した波形選択法”、音響論2-6-10
(1990-9)」、文献(3)「岩田、他::“パソコン向け
ソフトウェア日本語テキスト音声合成”、音響論2-8-13
(1993-10)」、および文献(4)「小山、小泉:“VC
Vを基本単位とする波形規則合成方式の検討”、信学技
報SP96-8(1996-5)」などで紹介されているように、実音
声波形から切出した音声素片のピッチ周期や継続時間長
を変更して接続することで音声を合成する方式で、高音
質化が比較的容易であると考えられており、盛んに検討
が行われている。[0005] On the other hand, a waveform editing method is described in, for example, Reference (2).
"Hirokawa, Hakoda, Sato:" Waveform Selection Method Considering Spectrum Continuity in Waveform Editing Synthetic Method ", Acoustic Theory 2-6-10
(1990-9) ", Reference (3)" Iwata et al .: "Japanese Text-to-Speech Synthesis for Personal Computer Software", Acoustic Theory 2-8-13
(1993-10) "and Reference (4)" Koyama, Koizumi: "VC
As described in “Study of waveform rule synthesis method using V as a basic unit”, IEICE Technical Report SP96-8 (1996-5), etc., the pitch period and continuation of speech units extracted from actual speech waveforms This is a method of synthesizing voice by changing the time length and connecting, and it is considered that it is relatively easy to achieve high sound quality, and has been actively studied.
【0006】さらに、高音質化のためには分析、合成な
どの信号処理を行わない方が良いとの立場から、音韻環
境及び韻律環境が一致する音声波形を自然音声のデータ
ベースから最長単位で接続する方式も提案されている
(文献(5)「N.Campbell andA.W.Black:“CHAT
R:自然音声波形接続型任意音声合成システム”、信学
技報SP96-7(1996-5)」。Further, from the standpoint that it is better not to perform signal processing such as analysis and synthesis in order to improve sound quality, a speech waveform having the same phonological environment and prosodic environment is connected in the longest unit from a natural speech database. (N. Campbell and A.W. Black: “CHAT”
R: Arbitrary speech synthesis system with natural speech waveform connection, IEICE Technical Report SP96-7 (1996-5).
【0007】これらの方式は、分析合成方式より高音質
の合成音声を生成できるという利点を持つ反面、音声素
片辞書のサイズが大きくなるという問題がある。また、
スペクトルパラメータが陽に表現されていないため、声
質の変更などが難しいという問題がある。[0007] These systems have the advantage that synthesized speech with higher sound quality can be generated than the analysis and synthesis system, but have the problem that the size of the speech unit dictionary is increased. Also,
Since the spectral parameters are not explicitly expressed, there is a problem that it is difficult to change the voice quality.
【0008】本発明は、上述した従来の問題点を解消す
べくなされたものであり、合成音声の音質が優れ、かつ
音声素片辞書のサイズがコンパクトで、声質の変更も容
易な音声合成方法を提供することを目的とする。SUMMARY OF THE INVENTION The present invention has been made in order to solve the above-mentioned conventional problems, and has a superior speech quality of a synthesized speech, a compact speech unit dictionary size, and an easy-to-change speech quality. The purpose is to provide.
【0009】[0009]
【課題を解決するための手段】上記の課題を解決するた
め、本発明による音声合成方法は、音声素片を残差信号
とLPC係数のようなスペクトルパラメータの形で表現
し、残差信号をスペクトルパラメータに従って構成され
る合成フィルタに通すことにより音声素片を作成し、こ
の音声素片に対して韻律制御を行い、韻律制御後の音声
素片を接続して合成音声を生成することを特徴とする。In order to solve the above problems, a speech synthesis method according to the present invention represents a speech unit in the form of a residual signal and spectral parameters such as LPC coefficients, and converts the residual signal. A speech unit is created by passing through a synthesis filter configured according to spectral parameters, prosody control is performed on the speech unit, and a speech unit after the prosody control is connected to generate a synthesized speech. And
【0010】さらに具体的には、音声素片を残差信号と
スペクトルパラメータの形で表現して、残差信号とスペ
クトルパラメータの組を音声素片辞書として格納してお
き、与えられた音韻記号列に従って残差信号とスペクト
ルパラメータの組を選択し、選択された残差信号を選択
されたスペクトルパラメータに従って構成される合成フ
ィルタに通すことにより音声素片を作成し、この音声素
片に対して韻律制御を行い、韻律制御後の音声素片を接
続して合成音声信号を生成する。More specifically, a speech unit is expressed in the form of a residual signal and a spectrum parameter, and a set of the residual signal and the spectrum parameter is stored as a speech unit dictionary. A speech unit is created by selecting a set of a residual signal and a spectrum parameter according to a column and passing the selected residual signal through a synthesis filter configured according to the selected spectrum parameter. Prosody control is performed, and speech units after prosody control are connected to generate a synthesized speech signal.
【0011】韻律制御に際しては、合成フィルタにより
得られる音声素片に対してピッチ同期波形重畳法を適用
することによりピッチ周期を制御することが好ましい。
韻律制御に際し、さらに音声素片の継続時間長を制御し
てもよい。In prosody control, it is preferable to control the pitch period by applying a pitch-synchronized waveform superposition method to a speech unit obtained by a synthesis filter.
In prosody control, the duration of the speech unit may be further controlled.
【0012】このような本発明に基づく音声合成方法に
よると、従来の残差駆動方式の音声合成法では残差信号
のレベルで韻律の制御を行っていたのに対して、音声素
片のレベルで韻律の制御を行い、かつ韻律制御後の音声
素片を接続するため、波形編集方式と同等の音質の合成
音声が得られる。According to such a speech synthesis method according to the present invention, in the conventional residual drive speech synthesis method, the prosody is controlled at the level of the residual signal, whereas the level of the speech unit is controlled. To control the prosody and connect the speech units after the prosody control, so that a synthesized speech having a sound quality equivalent to that of the waveform editing method can be obtained.
【0013】この場合、韻律制御におけるピッチ周期の
制御にピッチ同期波形重畳法を用いれば、さらに明瞭で
高音質の音声合成が可能となる。また、本発明では音声
素片辞書として用意する音声素片を残差信号とLPC係
数のようなスペクトルパラメータの組で表現するため、
音声素片辞書のサイズもコンパクトとなる。In this case, if the pitch-synchronized waveform superposition method is used for controlling the pitch period in the prosody control, a clearer and higher-quality sound can be synthesized. Further, in the present invention, since a speech unit prepared as a speech unit dictionary is represented by a set of a spectral parameter such as a residual signal and an LPC coefficient,
The size of the speech unit dictionary is also compact.
【0014】さらに、このように音声素片をスペクトル
パラメータと残差信号の組で表現することによって、ス
ペクトルパラメータの操作により合成音声の声質を用意
に変更することが可能である。Further, by expressing a speech unit by a set of a spectrum parameter and a residual signal, it is possible to easily change the voice quality of a synthesized speech by operating the spectrum parameter.
【0015】[0015]
【発明の実施の形態】以下、図面を参照して本発明の実
施の形態を説明する。図1は、本発明による音声合成方
法をテキスト音声合成システムに適用した実施形態を示
すブロック図である。この音声合成システムは、大きく
分けて分析部100と合成部200とからなる。Embodiments of the present invention will be described below with reference to the drawings. FIG. 1 is a block diagram showing an embodiment in which the speech synthesis method according to the present invention is applied to a text speech synthesis system. This speech synthesis system is roughly divided into an analysis unit 100 and a synthesis unit 200.
【0016】分析部100は、入力される音声波形から
ピッチ波形を切り出すピッチ波形切り出し部101と、
切り出されたパッチ波形のLPC分析(線形予測分析)
を行い、残差信号とスペクトルパラメータであるLPC
係数を抽出するLPC分析部102と、LPC分析部1
02により抽出された残差信号とLPC係数の組を音声
素片辞書として格納する残差信号記憶部103およびL
PC係数記憶部104からなる。The analyzing section 100 includes a pitch waveform extracting section 101 for extracting a pitch waveform from an input speech waveform,
LPC analysis of extracted patch waveforms (linear prediction analysis)
, And the residual signal and the spectral parameter LPC
LPC analysis unit 102 for extracting coefficients, and LPC analysis unit 1
02 and a residual signal storage unit 103 for storing a set of the residual signal and the LPC coefficient extracted as a speech unit dictionary.
It comprises a PC coefficient storage unit 104.
【0017】一方、合成部200は図示しない文解析・
韻律制御部でテキスト合成に供されるテキストを解析し
て得られる音韻記号列に従って、分析部100における
残差信号記憶部103およびLPC係数記憶部104か
ら、個々の音韻記号に対応する組の残差信号とLPC係
数を選択して取り出す音声素片選択部201と、選択さ
れたLPC係数に従って構成され、選択された残差信号
を入力として音声素片を作成する合成フィルタ202
と、作成された音声素片に対して、文解析・韻律制御部
から与えられるピッチ周期および継続時間長の情報に従
って韻律の制御を行う韻律制御部203と、韻律制御後
の音声素片を接続して合成音声を生成する素片接続部2
04からなる。On the other hand, the synthesizing unit 200 transmits a sentence
According to a phoneme symbol string obtained by analyzing a text to be subjected to text synthesis by the prosody control unit, the residual signal storage unit 103 and the LPC coefficient storage unit 104 of the analysis unit 100 store a set of residuals corresponding to each phoneme symbol. A speech unit selection unit 201 for selecting and extracting a difference signal and an LPC coefficient, and a synthesis filter 202 configured according to the selected LPC coefficient and generating a speech unit using the selected residual signal as an input.
And a prosody control unit 203 that controls the prosody of the generated speech unit according to the pitch period and duration information given from the sentence analysis and prosody control unit, and a speech unit after the prosody control. Unit connection unit 2 that generates synthesized speech
04.
【0018】次に、図2に示すフローチャートを用い
て、分析部100の詳細な処理手順を説明する。まず、
音声波形を分析部100に入力する(ステップS1
1)。この音声波形としては、例えば後述するようにし
て作成された代表音声素片を用いる。Next, the detailed processing procedure of the analyzer 100 will be described with reference to the flowchart shown in FIG. First,
A voice waveform is input to the analyzer 100 (step S1).
1). As the speech waveform, for example, a representative speech unit created as described later is used.
【0019】次に、ピッチ波形切り出し部101で入力
の音声波形にピッチ周期長の窓関数を掛けてピッチ周期
分の波形を切り出した後、LPC分析部102でピッチ
同期LPC分析を行う(ステップS12〜S13)。こ
の場合、窓関数により音声波形の離散的なスペクトルが
平滑化されるため、基本周波数の影響が低減されたスペ
クトル包絡を得ることができる。Next, a pitch waveform extracting section 101 multiplies an input speech waveform by a window function of a pitch cycle length to cut out a waveform corresponding to the pitch cycle, and then performs a pitch-synchronized LPC analysis in an LPC analyzing section 102 (step S12). To S13). In this case, since the discrete spectrum of the speech waveform is smoothed by the window function, a spectrum envelope in which the influence of the fundamental frequency is reduced can be obtained.
【0020】ステップS12でのLPC分析の結果、音
声素片がピッチ周期単位の残差信号とLPC係数の組で
表現される。これらのうち残差信号は残差信号記憶部1
03に、LPC係数はLPC係数記憶部104に、それ
ぞれ互いに対応付けられて音声素片辞書として格納され
る(ステップS14)。As a result of the LPC analysis in step S12, the speech unit is represented by a set of the residual signal and the LPC coefficient in units of pitch period. Among these, the residual signal is stored in the residual signal storage unit 1.
03, the LPC coefficients are stored in the LPC coefficient storage unit 104 as a speech unit dictionary in association with each other (step S14).
【0021】次に、図3に示すフローチャートを参照し
て合成部200の詳細な処理手順を説明する。音声合成
に際しては、図示しない文解析・韻律制御部から音韻記
号列とピッチ周期および継続時間長(音韻継続時間長)
の情報が与えられる。まず、音韻記号列に従って、音声
素片辞書を構成している残差信号記憶部103とLPC
係数記憶部104から、選択部201で個々の音韻記号
に対応した残差信号とLPC係数の組を選択して読み出
す(ステップS21)。Next, a detailed processing procedure of the synthesizing unit 200 will be described with reference to a flowchart shown in FIG. At the time of speech synthesis, a sentence analysis / prosody control unit (not shown) supplies a phoneme symbol string, a pitch period, and a duration (phoneme duration).
Is given. First, according to the phoneme symbol string, the residual signal storage unit 103 forming the speech unit dictionary and the LPC
From the coefficient storage unit 104, the selection unit 201 selects and reads a set of the residual signal and the LPC coefficient corresponding to each phoneme symbol (step S21).
【0022】次に、ステップS21で選択されたLPC
係数によって合成フィルタ202を構成し、この合成フ
ィルタ202にステップS21で選択された残差信号を
入力することにより、音声素片を作成する(ステップS
22〜S23)。Next, the LPC selected in step S21
A speech unit is created by configuring the synthesis filter 202 with the coefficients and inputting the residual signal selected in step S21 to the synthesis filter 202 (step S21).
22-S23).
【0023】次に、ステップS23で作成された音声素
片に対して、文解析・韻律制御部から与えられるピッチ
周期と継続時間長の情報に従って韻律制御部203で韻
律制御、つまりピッチ周期の制御と継続時間長の制御を
行う。Next, the prosody control unit 203 controls the prosody, that is, the control of the pitch period, according to the pitch period and duration information provided by the sentence analysis and prosody control unit for the speech unit created in step S23. And the duration time is controlled.
【0024】具体的には、ステップS23で作成された
音声素片に対して、まず波形編集方式と同様にピッチ同
期波形重畳法(PSOLA)を適用してピッチ周期の制
御を行う(ステップS24)。ピッチ同期波形重畳法
は、例えば文献(6)「F.Charpentier and M.Stella:
“Diphone Synthesis Using an Overlap-add Techniqef
or Speech Waveforms concateration”,Proc.ICASSP 8
6,pp.2015-2018(1986)」に記載されている公知の手法で
あるが、本実施形態ではより高音質の音声合成を可能と
するため、以下のようにしてピッチ同期波形重畳法に基
づくピッチ周期の制御を行う。More specifically, the pitch period is controlled by applying the pitch-synchronized waveform superposition method (PSOLA) to the speech unit created in step S23 in the same manner as in the waveform editing method (step S24). . The pitch-synchronized waveform superposition method is described in, for example, reference (6) “F. Charpentier and M. Stella:
“Diphone Synthesis Using an Overlap-add Techniqef
or Speech Waveforms concateration ”, Proc.ICASSP 8
6, pp. 2015-2018 (1986) '', but in the present embodiment, in order to enable speech synthesis with higher sound quality, the pitch synchronous waveform superposition method is performed as follows. The pitch period is controlled based on the pitch.
【0025】一般に、合成音声の音質は有声音の滑らか
さに負うところが大きい。そこで、本実施形態ではピッ
チ周期の変化をより滑らかにするために、与えられたピ
ッチ周期をサンプル単位で補間する。第jフレームと第
j+1フレームの中心時刻を各々t1 ,t2 とし、ピッ
チ周期をp1 ,p2 とすると、ピッチ周期が線形に変化
する場合、時刻tにおけるピッチ周期p(t) は次式で表
される。In general, the sound quality of synthesized speech largely depends on the smoothness of voiced sound. Therefore, in the present embodiment, in order to make the change in the pitch cycle smoother, the given pitch cycle is interpolated in units of samples. If the center times of the j-th frame and the j + 1-th frame are respectively t 1 and t 2 and the pitch periods are p 1 and p 2 , the pitch period p (t) at time t is It is expressed by an equation.
【0026】[0026]
【数1】 また、t1 からt2 までのピッチマークの位置をmk (k
=1,2,…N)とすると、次式が成立する。(Equation 1) Also, the position of the pitch mark from t 1 to t 2 m k (k
= 1, 2,... N), the following equation holds.
【0027】[0027]
【数2】 式(1)(2)から次式が得られる。(Equation 2) The following equations are obtained from the equations (1) and (2).
【0028】[0028]
【数3】 (Equation 3)
【0029】韻律制御部203におけるピッチ周期の制
御は、このようにして求められたピッチマークの位置を
基準にして、合成フィルタ202で作成された音声素片
を重畳しする。すなわち、例えば時間軸上で各ピッチマ
ークの位置に音声素片の先頭をそれぞれ配置して、それ
らを零信号に重畳する。この場合、各々のピッチマーク
の位置に対応する隣接した音声素片が重複している部分
は足し合わせられ、重複していない部分は元の音声素片
のままとなる。In the control of the pitch period in the prosody control unit 203, the speech unit created by the synthesis filter 202 is superimposed on the basis of the position of the pitch mark thus obtained. That is, for example, the head of a speech unit is arranged at the position of each pitch mark on the time axis, and these are superimposed on the zero signal. In this case, the overlapping portions of adjacent speech units corresponding to the positions of the respective pitch marks are added, and the non-overlapping portions remain as original speech units.
【0030】韻律制御部202では、さらに継続時間長
の制御を行う(ステップS25)。この継続時間長の制
御では、元の音声波形と合成音声波形の各々のピッチマ
ークをどのように対応付けるかが重要であるが、本実施
形態ではこの対応付けに際して時間的なマッピングを関
数で行う。この方法によると、マッピング関数を適切に
定義することによって、ピッチ波形の間引き・補間を接
続する音声素片の性質に応じて自由に制御することがで
きる。The prosody control unit 202 further controls the duration time (step S25). In the control of the duration, it is important how the pitch marks of the original speech waveform and the synthesized speech waveform are associated with each other. In this embodiment, temporal mapping is performed by a function in this association. According to this method, by properly defining the mapping function, it is possible to freely control the thinning / interpolation of the pitch waveform according to the nature of the speech unit to be connected.
【0031】次に、このようにして韻律制御(ピッチ周
期と継続時間長の制御)がなされた音声素片どうしの接
続を行う(ステップS26)。本実施形態では、接続部
における波形の不連続性に起因する歪みを低減するた
め、音声素片としてCV、VC素片を用いており、母音
定常部で各音声素片を接続する。この際、接続する母音
のピッチ波形を全母音区間に渡って重み付き加算して接
続する。このようにして、任意の文章(テキスト)が音
声信号に変換された合成音声が生成される。Next, connection is performed between the speech units subjected to the prosody control (control of the pitch period and the duration) in this way (step S26). In the present embodiment, in order to reduce distortion due to discontinuity of the waveform in the connection unit, CV and VC units are used as speech units, and each vowel unit is connected by a vowel stationary unit. At this time, the pitch waveforms of the vowels to be connected are connected by weighted addition over the entire vowel section. In this way, a synthesized speech in which an arbitrary sentence (text) is converted into an audio signal is generated.
【0032】次に、本発明に付随する音声素片の学習法
について説明する。従来、音声素片の作成は人手による
試行錯誤的手法に頼っており、熟練した研究者が長時間
かけて単音発声や無意味単語発声または連続発声された
音声データから音声素片を切り出しては、合成音声を評
価するという一連の作業を繰り返し行う必要があった。Next, a description will be given of a speech unit learning method associated with the present invention. Traditionally, speech units have been created by manual trial-and-error techniques. It was necessary to repeatedly perform a series of operations for evaluating the synthesized speech.
【0033】一方、音声データベースから音声素片を自
動的に生成する方法として、例えば文献(7)「中嶌、
浜田“音響近況に基づくクラスタリングによる規則合成
法”、信学論D-II,vol.J-72-D-II,No.8,pp.1177-1179(1
989-8)」に開示された音素環境クラスタリング(CO
C:Context Oriented Clustering)法が知られている。
この方法は、スペクトルパラメータの分散に基づいて音
韻環境の拘束条件の下で音声データベースから切り出さ
れた音声素片をクラスタリングし、各クラスタのセント
ロイドを代表音声素片とする方法である。On the other hand, as a method for automatically generating a speech unit from a speech database, for example, reference (7) “Nakashima,
Hamada, "Rule Synthesis Method by Clustering Based on Acoustic Updates", IEICE D-II, vol.J-72-D-II, No.8, pp.1177-1179 (1
989-8) ”, the phoneme environment clustering (CO
C: Context Oriented Clustering) method is known.
This method is a method of clustering speech segments cut out from a speech database under the constraints of a phoneme environment based on the dispersion of spectral parameters, and using the centroid of each cluster as a representative speech segment.
【0034】この音素環境クラスタリング法は、先見的
知識に頼らずに統計的評価基準に基づいて代表音声素片
を決定できるという特徴があるが、音声合成で問題とな
っているピッチ周期の制御に伴う歪みを考慮していない
ため、合成音声の音質は必ずしも十分なものとは言えな
い。This phoneme environment clustering method has a feature that a representative speech unit can be determined based on a statistical evaluation criterion without relying on a priori knowledge. However, it is difficult to control a pitch cycle which is a problem in speech synthesis. Since the accompanying distortion is not taken into account, the sound quality of the synthesized speech is not always sufficient.
【0035】そこで、韻律制御(ピッチ周期と継続時間
長の制御)を行うことにより生じる歪みも含めて合成音
声の歪みを定義し、この歪みを最小化する代表音声素片
の学習法について説明する。Therefore, the distortion of the synthesized speech including the distortion caused by performing the prosody control (control of the pitch period and the duration) is defined, and a learning method of the representative speech unit for minimizing the distortion will be described. .
【0036】図4に、本実施形態で用いる代表音声素片
の閉ループ学習システムのブロック図を示す。この学習
法は、実際には様々な合成器や合成単位に対して適用す
ることができるが、ここでは先に説明した音声合成シス
テムに用いるCV、VC音声素片の学習に適用した場合
について述べる。これは学習によって音声素片を生成し
た後、合成フィルタのLPC係数と残差信号を求める。FIG. 4 is a block diagram of a representative speech unit closed loop learning system used in this embodiment. This learning method can be actually applied to various synthesizers and synthesis units, but here, a case where the learning method is applied to learning of CV and VC speech units used in the speech synthesis system described above will be described. . In this method, after speech units are generated by learning, LPC coefficients of a synthesis filter and a residual signal are obtained.
【0037】学習に当たっては、まず事前準備として音
声合成単位の音声素片を音声データべース401から大
量に切り出し、これらを代表音声素片候補402とす
る。同時に、同様な方法で学習のためのトレーニングデ
ータ403を作成する。次に、代表音声素片候補のピッ
チ周期と継続時間長を分析して(404)、トレーニン
グデータ403をターゲットに代表音声素片候補のピッ
チ周期と継続時間長を分析して変更し(405)、音声
素片を合成する。このような方法で全ての代表音声素片
候補402と全てのトレーニングデータの組み合わせに
ついて、音声素片を生成する。In the learning, first, a large number of speech units in a speech synthesis unit are cut out from the speech database 401 as a preliminary preparation, and these are used as representative speech unit candidates 402. At the same time, training data 403 for learning is created by a similar method. Next, the pitch period and the duration of the representative speech unit candidate are analyzed (404), and the pitch period and the duration of the representative speech unit candidate are analyzed and changed using the training data 403 as a target (405). Synthesize speech units. In this way, speech units are generated for all combinations of the representative speech unit candidates 402 and all the training data.
【0038】次に、生成された音声素片のトレーニング
データに対する歪みを計算で求めて評価し(405)、
全てのトレーニングデータに対する歪みの総和を最小に
する代表音声素片を探索して上述の代表音声素片の候補
から選択し(406)、これを代表素片とする。Next, the distortion of the generated speech unit with respect to the training data is calculated and evaluated (405).
A representative speech unit that minimizes the sum of distortions for all the training data is searched and selected from the above-described candidate representative speech units (406), and this is set as a representative unit.
【0039】この学習法は、合成された音声素片の評価
結果を音声素片の学習にフィードバックするという意味
で、閉ループ学習と呼ぶ。以下に、この学習法で重要に
なる歪み尺度と代表音声素片の選択法について、具体的
な一例を述べる。This learning method is called closed-loop learning in the sense that the evaluation result of the synthesized speech unit is fed back to the learning of the speech unit. Hereinafter, a specific example of a distortion measure and a method of selecting a representative speech unit, which are important in this learning method, will be described.
【0040】(歪み尺度)学習の歪み尺度は、主観評価
の結果を良く反映するものである必要がある。また、合
成音声のパワーは音声合成システムで制御されることか
ら、代表音声素片はパワーが正規化されたレベルで評価
する必要がある。このようなことを考慮して、合成音声
素片の歪みを次式で定義する。(Distortion scale) The distortion scale of learning needs to reflect the result of the subjective evaluation well. Further, since the power of the synthesized speech is controlled by the speech synthesis system, it is necessary to evaluate the representative speech unit at a level where the power is normalized. In consideration of the above, the distortion of the synthesized speech unit is defined by the following equation.
【0041】[0041]
【数4】 (Equation 4)
【0042】ここで、rj はトレーニングデータを表
し、sijはrj を目標にした代表音声素片候補ui によ
る合成音声素片を表す。 (代表音声素片の選択)合成単位当たりの代表音声素片
数をn、代表音声素片候補数をNとすると、代表音声素
片の選択はN個の候補からn個を選ぶ組み合わせの中か
ら次のコス卜関数を最小化する代表音声素片の組を一組
探索する問題となる。[0042] Here, r j represents the training data, s ij denotes a synthesized speech segment according to a representative speech unit candidate u i that the goal of r j. (Selection of representative speech unit) Assuming that the number of representative speech units per synthesis unit is n and the number of candidate representative speech units is N, the selection of the representative speech unit is a combination of selecting n out of N candidates. Then, there is a problem of searching for a set of representative speech units that minimizes the next cost function.
【0043】[0043]
【数5】 (Equation 5)
【0044】ここで、Mはトレーニングデータの数であ
る。式(9)のコスト関数を最小化する代表音声素片の
組が求まると、全トレーニングデータを代表音声素片に
対応するクラスタにクラスタリングすることができる。Here, M is the number of training data. When a set of representative speech units that minimizes the cost function of Expression (9) is obtained, all training data can be clustered into clusters corresponding to the representative speech units.
【0045】図5に、4個の代表音声素片候補から2個
の代表音声素片を選択する場合の例を示す。この例で
は、u1 〜u4 の任意の二個の組み合わせの中で、u2
とu3の組み合わせのコスト関数が最小となる。この結
果、u2 とu3 が代表音声素片として選択される。FIG. 5 shows an example in which two representative speech units are selected from four representative speech unit candidates. In this example, among any two combinations of u 1 to u 4 , u 2
And the cost function of the combination of u 3 is minimized. As a result, u 2 and u 3 are selected as representative speech units.
【0046】(評価実験)CV、VCのdiphone
を合成単位として、各合成単位に対して上述の方法で1
個の代表音声素片を作成する実験を行った。視察により
音韻ラベルが付けられた音声データベースからトレーニ
ングに用いる音声素片データと代表音声素片候補を切り
出し、前述した閉ループ学習法で計302個のCV,V
C代表音声素片を作成した。学習に要した時間はSun
−Ultra2で約1.5時間であった。(Evaluation experiment) Diphone of CV and VC
Is a synthesis unit, and 1 is calculated for each synthesis unit by the above-described method.
An experiment to create representative speech units was performed. Speech unit data and representative speech unit candidates used for training are cut out from a speech database to which a phoneme label has been attached by inspection, and a total of 302 CVs and Vs are obtained by the closed loop learning method described above.
C representative speech unit was created. The time required for learning was Sun
-About 1.5 hours with Ultra2.
【0047】図6は、合成単位(CV,VC)当たりの
音声素片数を増加させた場合のコスト関数の値を示して
おり、この図から音声素片数の増加とともに合成音声の
歪みが単調に減少していることが分かる。FIG. 6 shows the value of the cost function when the number of speech units per synthesis unit (CV, VC) is increased. From this figure, as the number of speech units increases, the distortion of the synthesized speech decreases. It turns out that it decreases monotonically.
【0048】従来から、パワーやピッチにより音声素片
を使い分けることにより合成音の音質が向上することは
知られている。しかし、従来の試行錯誤による方法で
は、代表音声素片の作成に多大な労力と時間を要し、代
表音声素片の数を増やすことは容易ではなかった。It has been known that the sound quality of a synthesized sound is improved by selectively using speech units according to power and pitch. However, according to the conventional method based on trial and error, it takes a lot of effort and time to create a representative speech unit, and it is not easy to increase the number of representative speech units.
【0049】これに対し、上述した閉ループ学習法によ
れば、ラベリングされた音声データが与えられれば短時
間で自動的に音声素片の作成ができ、任意の数の代表音
声素片を生成することが容易である。しかも、パワーや
ピッチといった先見的な知識で音声素片の選択を行うの
ではなく、合成音声の歪みの尺度で選択の規則を作成す
ることが可能である。すなわち、トレーニングデータを
選択された代表音声素片のクラスタにクラスタリング
し、クラスタ内で共通する要因を抽出することにより音
声素片選択の規則を生成することかできる。On the other hand, according to the above-described closed-loop learning method, given labeled speech data, speech segments can be automatically created in a short time, and an arbitrary number of representative speech segments are generated. It is easy. Moreover, it is possible to create a rule for selection based on a measure of distortion of synthesized speech, instead of selecting speech units based on a priori knowledge such as power and pitch. In other words, it is possible to generate a speech unit selection rule by clustering the training data into clusters of the selected representative speech units and extracting factors common to the clusters.
【0050】次に、上述した音声合成システムで得られ
た合成音声の音質評価を行った。作成した代表音声素片
を図1の音声入力として分析部に与え、ピッチ波形切り
出し部101およびLPC分析部102を介して残差信
号とLPC係数に分解した形で残差信号記憶部103と
LPC係数記憶部104に音声素片辞書として蓄積し
た。蓄積に当たっては、ベクトル−スカラ量子化の手法
を適用して、残差信号とLPC係数を符号化した。この
結果、データ量は一話者当たり約150kバイトと、波
形編集方式に比べて1/10〜1/20の非常にコンパ
クトなものとなっている。従って、本実施形態の音声合
成システムはPDA等の携帯情報端末やカーナビゲーシ
ョンシステム等へ組み込みことも容易である。Next, the sound quality of the synthesized speech obtained by the above-described speech synthesis system was evaluated. The generated representative speech unit is supplied to the analysis unit as the speech input of FIG. 1 and is divided into a residual signal and an LPC coefficient via the pitch waveform cutout unit 101 and the LPC analysis unit 102, and the LPC coefficient is stored in the residual signal storage unit 103. It was stored in the coefficient storage unit 104 as a speech unit dictionary. Upon accumulation, the residual signal and the LPC coefficient were encoded by applying a vector-scalar quantization technique. As a result, the data amount is about 150 kbytes per speaker, which is very compact, 1/10 to 1/20 as compared with the waveform editing method. Therefore, the speech synthesis system of the present embodiment can be easily incorporated into a portable information terminal such as a PDA, a car navigation system, or the like.
【0051】大学生7名を含む計10名(男女同数)の
一般の被験者による7段階(−3:非常に悪い〜+3:
非常によい)の主観評価の結果、本実施形態の音声合成
システムで得られた合成音声の音質は、従来のケプスト
ラム合成方式による音声合成システムに比較して、男女
話者及び各種文章の平均で2.5ポイント向上し、明瞭
感が大幅に向上するとともに、ソフトでより肉声に近い
音質になったとの評価が被験者から得られた。Seven stages (−3: very bad to +3 :) by a total of 10 (same number of men and women) general subjects including 7 university students
As a result of the subjective evaluation of (very good), the sound quality of the synthesized speech obtained by the speech synthesis system of the present embodiment is, on average, the average for male and female speakers and various sentences compared to the conventional cepstrum synthesis type speech synthesis system. The subject obtained an evaluation that the sound quality was improved by 2.5 points, the clarity was significantly improved, and the sound quality was softer and closer to real voice.
【0052】[0052]
【発明の効果】以上説明したように、本発明の音声合成
方法によれば、音声素片を残差信号とLPC係数のよう
なスペクトルパラメータの組で表現し、残差信号とスペ
クトルパラメータで生成される音声素片に対して音律の
制御を行っているため、明瞭で高音質の合成音声を生成
できるとともに、スペクトルパラメータの操作により声
質の変更が容易であり、さらに音声素片辞書のサイズも
コンパクトにすることができる。As described above, according to the speech synthesis method of the present invention, a speech unit is represented by a set of a residual signal and a spectral parameter such as an LPC coefficient, and is generated by the residual signal and the spectral parameter. Control of the tone of the speech unit to be generated, it is possible to generate clear and high-quality synthesized speech, and it is easy to change the voice quality by manipulating the spectrum parameters. It can be compact.
【図1】本発明の一実施形態に係る音声合成システムの
構成を示すブロック図FIG. 1 is a block diagram showing a configuration of a speech synthesis system according to an embodiment of the present invention.
【図2】同実施形態における分析側の処理手順を示すフ
ローチャートFIG. 2 is a flowchart showing a processing procedure on the analysis side in the embodiment.
【図3】同実施形態における合成側の処理手順を示すフ
ローチャートFIG. 3 is a flowchart showing a processing procedure on the synthesis side according to the embodiment;
【図4】代表音声素片の閉ループ学習システムを説明す
るためのブロック図FIG. 4 is a block diagram for explaining a closed-loop learning system for representative speech units.
【図5】合成音声素片の歪みに基づく代表音声素片選択
の例を示す図FIG. 5 is a diagram showing an example of representative speech unit selection based on distortion of a synthesized speech unit.
【図6】代表音声素片の素片数とコスト関数の関係を示
す図FIG. 6 is a diagram showing the relationship between the number of representative speech segments and a cost function.
100…音声分析部 101…ピッチ波形切出し部 102…LPC分析部 103…残差信号記憶部 104…LPC係数記憶部 200…音声合成部 201…選択部 202…LPC合成フィルタ 203…韻律制御部 204…音声素片接続部 Reference Signs List 100 voice analysis unit 101 pitch waveform cutout unit 102 LPC analysis unit 103 residual signal storage unit 104 LPC coefficient storage unit 200 voice synthesis unit 201 selection unit 202 LPC synthesis filter 203 prosody control unit 204 Voice unit connection
Claims (4)
タの形で表現し、残差信号をスペクトルパラメータに従
って構成される合成フィルタに通すことにより音声素片
を作成し、この音声素片に対して韻律制御を行い、韻律
制御後の音声素片を接続して合成音声を生成することを
特徴とする音声合成方法。A speech unit is expressed in the form of a residual signal and a spectrum parameter, and the residual signal is passed through a synthesis filter configured according to the spectrum parameter to produce a speech unit. A speech synthesis method comprising: performing prosody control using the speech units after the prosody control to generate synthesized speech.
タの形で表現して、該残差信号とスペクトルパラメータ
の組を音声素片辞書として格納しておき、与えられた音
韻記号列に従って残差信号とスペクトルパラメータの組
を選択し、選択された残差信号を選択されたスペクトル
パラメータに従って構成される合成フィルタに通すこと
により音声素片を作成し、この音声素片に対して韻律制
御を行い、韻律制御後の音声素片を接続して合成音声を
生成することを特徴とする音声合成方法。2. A speech unit is represented in the form of a residual signal and a spectrum parameter, a set of the residual signal and the spectrum parameter is stored as a speech unit dictionary, and the residual is stored in accordance with a given phoneme symbol string. A speech unit is created by selecting a set of a difference signal and a spectrum parameter, and passing the selected residual signal through a synthesis filter configured according to the selected spectrum parameter, and performing prosody control on the speech unit. A speech synthesis method comprising: connecting speech units after prosody control to generate synthesized speech.
により得られる音声素片に対してピッチ同期波形重畳法
を適用することによりピッチ周期を制御することを特徴
とする請求項1または2記載の音声合成方法。3. The speech according to claim 1, wherein the pitch period is controlled by applying a pitch-synchronized waveform superposition method to speech segments obtained by the synthesis filter during the prosody control. Synthesis method.
継続時間長を制御することを特徴とする請求項3項記載
の音声合成方法。4. A speech synthesis method according to claim 3, wherein said prosody control further controls a duration of a speech unit.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP9250857A JPH1195796A (en) | 1997-09-16 | 1997-09-16 | Voice synthesizing method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP9250857A JPH1195796A (en) | 1997-09-16 | 1997-09-16 | Voice synthesizing method |
Publications (1)
Publication Number | Publication Date |
---|---|
JPH1195796A true JPH1195796A (en) | 1999-04-09 |
Family
ID=17214048
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP9250857A Pending JPH1195796A (en) | 1997-09-16 | 1997-09-16 | Voice synthesizing method |
Country Status (1)
Country | Link |
---|---|
JP (1) | JPH1195796A (en) |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2002063610A1 (en) * | 2001-02-02 | 2002-08-15 | Nec Corporation | Voice code sequence converting device and method |
US6470316B1 (en) | 1999-04-23 | 2002-10-22 | Oki Electric Industry Co., Ltd. | Speech synthesis apparatus having prosody generator with user-set speech-rate- or adjusted phoneme-duration-dependent selective vowel devoicing |
US6499014B1 (en) | 1999-04-23 | 2002-12-24 | Oki Electric Industry Co., Ltd. | Speech synthesis apparatus |
US6757653B2 (en) * | 2000-06-30 | 2004-06-29 | Nokia Mobile Phones, Ltd. | Reassembling speech sentence fragments using associated phonetic property |
US7092878B1 (en) | 1999-08-03 | 2006-08-15 | Canon Kabushiki Kaisha | Speech synthesis using multi-mode coding with a speech segment dictionary |
US7546241B2 (en) | 2002-06-05 | 2009-06-09 | Canon Kabushiki Kaisha | Speech synthesis method and apparatus, and dictionary generation method and apparatus |
-
1997
- 1997-09-16 JP JP9250857A patent/JPH1195796A/en active Pending
Cited By (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6470316B1 (en) | 1999-04-23 | 2002-10-22 | Oki Electric Industry Co., Ltd. | Speech synthesis apparatus having prosody generator with user-set speech-rate- or adjusted phoneme-duration-dependent selective vowel devoicing |
US6499014B1 (en) | 1999-04-23 | 2002-12-24 | Oki Electric Industry Co., Ltd. | Speech synthesis apparatus |
US7092878B1 (en) | 1999-08-03 | 2006-08-15 | Canon Kabushiki Kaisha | Speech synthesis using multi-mode coding with a speech segment dictionary |
US6757653B2 (en) * | 2000-06-30 | 2004-06-29 | Nokia Mobile Phones, Ltd. | Reassembling speech sentence fragments using associated phonetic property |
WO2002063610A1 (en) * | 2001-02-02 | 2002-08-15 | Nec Corporation | Voice code sequence converting device and method |
US7505899B2 (en) | 2001-02-02 | 2009-03-17 | Nec Corporation | Speech code sequence converting device and method in which coding is performed by two types of speech coding systems |
US7546241B2 (en) | 2002-06-05 | 2009-06-09 | Canon Kabushiki Kaisha | Speech synthesis method and apparatus, and dictionary generation method and apparatus |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP3408477B2 (en) | Semisyllable-coupled formant-based speech synthesizer with independent crossfading in filter parameters and source domain | |
US8886538B2 (en) | Systems and methods for text-to-speech synthesis using spoken example | |
US7565291B2 (en) | Synthesis-based pre-selection of suitable units for concatenative speech | |
JP3910628B2 (en) | Speech synthesis apparatus, speech synthesis method and program | |
WO2005109399A1 (en) | Speech synthesis device and method | |
US20040030555A1 (en) | System and method for concatenating acoustic contours for speech synthesis | |
US20030154080A1 (en) | Method and apparatus for modification of audio input to a data processing system | |
JPH031200A (en) | Regulation type voice synthesizing device | |
JP2002244689A (en) | Synthesizing method for averaged voice and method for synthesizing arbitrary-speaker's voice from averaged voice | |
Dutoit | Corpus-based speech synthesis | |
JP2001109500A (en) | Voice synthesis device and voice synthesis method | |
JP2001265375A (en) | Ruled voice synthesizing device | |
JPH1195796A (en) | Voice synthesizing method | |
JP2761552B2 (en) | Voice synthesis method | |
JP3281266B2 (en) | Speech synthesis method and apparatus | |
JPH0887297A (en) | Speech synthesis system | |
van Rijnsoever | A multilingual text-to-speech system | |
Latsch et al. | Pitch-synchronous time alignment of speech signals for prosody transplantation | |
JP3091426B2 (en) | Speech synthesizer with spontaneous speech waveform signal connection | |
Qin et al. | An improved spectral and prosodic transformation method in STRAIGHT-based voice conversion | |
JPH11249676A (en) | Speech synthesizer | |
Hirose et al. | Superpositional modeling of fundamental frequency contours for HMM-based speech synthesis | |
EP1589524B1 (en) | Method and device for speech synthesis | |
JPH09179576A (en) | Voice synthesizing method | |
Ng | Survey of data-driven approaches to Speech Synthesis |