JP6840124B2 - Language processor, language processor and language processing method - Google Patents
Language processor, language processor and language processing method Download PDFInfo
- Publication number
- JP6840124B2 JP6840124B2 JP2018244555A JP2018244555A JP6840124B2 JP 6840124 B2 JP6840124 B2 JP 6840124B2 JP 2018244555 A JP2018244555 A JP 2018244555A JP 2018244555 A JP2018244555 A JP 2018244555A JP 6840124 B2 JP6840124 B2 JP 6840124B2
- Authority
- JP
- Japan
- Prior art keywords
- attribute
- language
- phoneme
- language processing
- frame
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Landscapes
- Machine Translation (AREA)
Description
この発明は言語処理装置、言語処理プログラムおよび言語処理方法に関し、特にたとえば、入力テキストに従う合成音声を生成および出力する、言語処理装置、言語処理プログラムおよび言語処理方法に関する。 The present invention relates to a language processor, a language processor and a language processing method, and more particularly to, for example, a language processor, a language processing program and a language processing method that generate and output synthetic speech according to input text.
背景技術の一例が特許文献1に開示される。特許文献1によれば、音声データからディープニューラルネットワーク音響モデルを学習し、学習されたディープニューラルネットワーク音響モデルを用いて合成音声を生成する音声合成装置が開示される。この音声合成装置では、コンテキストデータを数値ベクトルで表現した言語特徴量ベクトルと、話者コードを連結したものを入力とし、話者、コンテキストデータに対応する音声パラメータを出力とするディープニューラルネットワーク音響モデルが学習される。
An example of the background technique is disclosed in
また、背景技術の他の例が特許文献2に開示される。特許文献2によれば、音声コーパスから時間長DNN(ディープニューラルネットワーク)および音響特徴量DNNを事前学習し、学習された時間長DNNおよび音響特徴量DNNを用いてテキストに対応する音声波形を合成する音声合成装置が開示される。この音声合成装置では、事前学習部は、音声コーパスから音素の言語特徴量、音素フレームの言語特徴量、音素の時間長及び音素フレームの音響特徴量を生成し、話者ラベル及び感情ラベルを付与する。そして、事前学習部は、音素の言語特徴量、話者ラベル、感情ラベル及び音素の時間長を与えて時間長DNNを学習し、音素フレームの言語特徴量、話者ラベル、感情ラベル及び音素フレームの音響特徴量を与えて音響特徴量DNNを学習する。
Further, another example of the background technique is disclosed in
特許文献1や特許文献2においては、言語特徴量の正規化には何ら開示されていないが、これらの特許文献において参照される非特許文献1や非特許文献2においては、すべての学習データから計算される平均と分散または最小値と最大値による正規化が用いられている。しかし、これらの正規化手法では自由文章のテキストが入力となる音声合成装置においては、学習外となる値が言語特徴量に含まれることにより外れ値が発生する。さらに、ニューラルネットワークの外挿能力が不十分でないため、予測が不安定になる問題が生じる。この問題の対策として、一般的には、学習データを多くしてカバーする範囲を広くする対策を採る。しかし、この対策ではすべての入力のパターンをカバーすることはできない。また、多くの学習データを収集するのに必要なコストが高くなってしまう。
In
それゆえに、この発明の主たる目的は、新規な、言語処理装置、言語処理プログラムおよび言語処理方法を提供することである。 Therefore, a main object of the present invention is to provide a novel language processing device, language processing program and language processing method.
この発明の他の目的は、外れ値が発生するのを防止することができる、言語処理装置、言語処理プログラムおよび言語処理方法を提供することである。 Another object of the present invention is to provide a language processing apparatus, a language processing program, and a language processing method capable of preventing outliers from occurring.
第1の発明は、合成音声を生成する音声合成装置のディープニューラルネットワークに入力され、複数の異なる属性で構成される言語特徴量ベクトル系列を正規化する言語処理装置であって、1発話分の言語特徴量ベクトル系列における第1の属性を、当該1発話分の言語特徴量ベクトル系列における当該第1の属性とは異なる第2の属性で正規化する正規化手段を備える、言語処理装置である。 The first invention is a language processing device that is input to a deep neural network of a speech synthesizer that generates synthetic speech and normalizes a language feature amount vector series composed of a plurality of different attributes for one utterance. It is a language processing device provided with a normalization means for normalizing the first attribute in the language feature quantity vector series with a second attribute different from the first attribute in the language feature quantity vector series for the one utterance. ..
第2の発明は、第1の発明に従属し、第1の属性および第2の属性は、言語的に関連のある値である。 The second invention is subordinate to the first invention, where the first and second attributes are linguistically relevant values.
第3の発明は、第1または第2の発明に従属し、正規化手段は、第1の属性を第2の属性で除することで正規化する。 The third invention is subordinate to the first or second invention, and the normalization means normalizes by dividing the first attribute by the second attribute.
第4の発明は、第1から第3の発明までのいずれかに従属し、第1の属性の絶対値は、第2の属性の絶対値以下である。 The fourth invention is subordinate to any of the first to third inventions, and the absolute value of the first attribute is equal to or less than the absolute value of the second attribute.
第5の発明は、合成音声を生成する音声合成装置のディープニューラルネットワークに入力され、複数の異なる属性で構成される言語特徴量ベクトル系列を正規化する言語処理装置によって実行される言語処理プログラムであって、言語処理装置のプロセッサに、1発話分の言語特徴量ベクトル系列における第1の属性を、当該1発話分の言語特徴量ベクトル系列における当該第1の属性とは異なる第2の属性で正規化する正規化ステップを実行させる、言語処理プログラムである。 A fifth invention is a language processing program that is input to the deep neural network of a speech synthesizer that generates synthetic speech and is executed by a language processor that normalizes a language feature vector series composed of a plurality of different attributes. Therefore, in the processor of the language processing device, the first attribute in the language feature quantity vector series for one utterance is set to a second attribute different from the first attribute in the language feature quantity vector series for the one utterance. A language processing program that executes a normalization step to normalize.
第6の発明は、合成音声を生成する音声合成装置のディープニューラルネットワークに入力され、複数の異なる属性で構成される言語特徴量ベクトル系列を正規化する言語処理装置の言語処理方法であって、言語処理装置のプロセッサに、1発話分の言語特徴量ベクトル系列における第1の属性を、当該1発話分の言語特徴量ベクトル系列における当該第1の属性とは異なる第2の属性で正規する処理を実行させる、言語処理方法である。 The sixth invention is a language processing method of a language processing device that is input to a deep neural network of a speech synthesizer that generates synthetic speech and normalizes a language feature quantity vector series composed of a plurality of different attributes. the processor of the language processing unit, the first attribute in the language feature vector sequence of 1 utterance, the process normalizes a different second attribute with the first attribute in the language feature vector sequence of the 1 utterances It is a language processing method to execute.
この発明によれば、1発話分の言語特徴量ベクトル系列における第1の属性を、当該第1の属性とは異なる第2の属性で正規化するので、外れ値が発生するのを防止することができる。 According to the present invention, the first attribute in the language feature vector series for one utterance is normalized by a second attribute different from the first attribute, so that outliers are prevented from occurring. Can be done.
この発明の上述の目的,その他の目的,特徴および利点は、図面を参照して行う以下の実施例の詳細な説明から一層明らかとなろう。 The above-mentioned objectives, other objectives, features and advantages of the present invention will become more apparent from the detailed description of the following examples made with reference to the drawings.
図1はこの実施例の音声合成装置10の機能ブロック図である。音声合成装置10は、汎用のパーソナルコンピュータまたはワークステーションであり、後述する言語特徴量を正規化する言語処理装置または正規化処理装置としても機能する。図示等は省略するが、音声合成装置10は、CPU、メモリ(HDD、ROM、RAM)および通信装置(ネットワーク接続装置)などのコンポーネントを備えている。
FIG. 1 is a functional block diagram of the
以下、音声合成装置10について説明するが、学習および合成音声の生成に関する処理は、音声合成装置10のCPUが種々のプログラムに従って処理する。また、各記憶部12、16は、音声合成装置10のメモリ(HDDまたは/およびRAM)、または、音声合成装置10がアクセス可能なネットワーク上のコンピュータに内蔵されるメモリまたはアクセス可能なネットワーク上のデータベースを意味する。
Hereinafter, the
図1に示すように、音声合成装置10は、記憶部12、事前学習部14、記憶部16および合成処理部18を備える。記憶部12は、音声コーパスを記憶する。音声コーパスは、特定の文章が1または複数の話者によって読み上げられた音声に関する情報である。この実施例では、音声に関する情報は、テキストおよび音声波形である。ただし、テキストおよびそれを読み上げた音声についての音声波形はペアとして(互いに紐付けて)記憶部12に記憶される。
As shown in FIG. 1, the
事前学習部14は、記憶部12から読み出した音声コーパスのテキストに対して所定のテキスト解析を行うとともに、当該テキストに対する音声波形に対して所定の音響分析を行うことで、継続長DNNを学習するための言語特徴量および音響特徴量DNNを学習するための音響特徴量等の情報を生成する。ただし、DNNは、ディープニューラルネットワークを意味する。事前学習部14は、言語特徴量および音響特徴量などの情報を用いて、記憶部16に記憶された継続長DNNおよび音響特徴量DNNを事前に学習する。
The
なお、テキスト解析の手法および音響解析の手法は既知であるから、この実施例では、その詳細な説明は省略することにする。また、この実施例では、継続長DNNおよび音響特徴量DNNは同じ記憶部16に記憶するようにしてあるが、それぞれ異なる記憶部に記憶されてもよい。
Since the text analysis method and the acoustic analysis method are known, detailed description thereof will be omitted in this embodiment. Further, in this embodiment, the continuous length DNN and the acoustic feature amount DNN are stored in the
この実施例では、継続長DNNおよび音響特徴量DNNは、それぞれ、複数のノードを、入力層、複数の隠れ層(中間層)および出力層で構成した順伝播型のネットワークである。 In this embodiment, the continuous length DNN and the acoustic feature DNN are feedforward networks in which a plurality of nodes are composed of an input layer, a plurality of hidden layers (intermediate layers), and an output layer, respectively.
継続長DNNは、学習時に、音素の言語特徴量が入力層の各ユニットに与えられ、音素の継続長が出力層のユニットに与えられることで、入力層、隠れ層および出力層の各ユニットの重みなどが計算され、音素単位の学習が行われる。この実施例では、学習のための音素の言語特徴量は、たとえば、音素ラベル、モーラの情報、アクセント句の情報、呼気段落の情報および発話の情報などを含む。ただし、音素の継続長は、音素を構成する音素フレームの数で表される。この実施例では、音素フレームの1フレームの長さは5msecである。 In the continuous length DNN, the linguistic features of phonemes are given to each unit of the input layer at the time of learning, and the continuous length of phonemes is given to the units of the output layer, so that each unit of the input layer, the hidden layer and the output layer Weights and the like are calculated, and phoneme unit learning is performed. In this embodiment, the phoneme linguistic features for learning include, for example, phoneme labels, mora information, accent phrase information, exhalation paragraph information, utterance information, and the like. However, the duration of a phoneme is represented by the number of phoneme frames that make up the phoneme. In this embodiment, the length of one frame of the phoneme frame is 5 msec.
後述する音声合成処理を実行するときには、継続長DNNの入力層の各ユニットに、音素の言語特徴量が与えられる。すると、継続長DNNの出力層のユニットから、入力層に与えられた音素の言語特徴量に対応する音素の継続長が出力される。 When the speech synthesis process described later is executed, the language features of phonemes are given to each unit of the input layer of the continuous length DNN. Then, the continuous length of the phoneme corresponding to the language feature amount of the phoneme given to the input layer is output from the unit of the output layer of the continuous length DNN.
また、音響特徴量DNNは、学習時に、音素フレームの言語特徴量が入力層の各ユニットに与えられ、音素フレームの音響特徴量が出力層の各ユニットに与えられることで、入力層、隠れ層及び出力層の各ユニットの重みなどが計算され、音素フレーム単位の学習が行われる。この実施例では、音素フレームの音響特徴量は、たとえば、スペクトル係数、雑音性係数、ピッチ、有声/無声判定などの情報を含む。 Further, in the acoustic feature DNN, the language feature of the phoneme frame is given to each unit of the input layer at the time of learning, and the acoustic feature of the phoneme frame is given to each unit of the output layer, so that the input layer and the hidden layer And the weight of each unit of the output layer is calculated, and the phoneme frame unit learning is performed. In this embodiment, the acoustic features of the phoneme frame include, for example, information such as a spectral coefficient, a noise coefficient, a pitch, and a voiced / unvoiced determination.
後述する音声合成処理を実行するときには、音響特徴量DNNの入力層の各ユニットに、音素フレームの言語特徴量が与えられる。すると、音響特徴量DNNの出力層の各ユニットから、入力装置に与えられた音素フレームの言語特徴量に対応する音素フレームの音響特徴量が出力される。 When the speech synthesis process described later is executed, the language feature amount of the phoneme frame is given to each unit of the input layer of the acoustic feature amount DNN. Then, each unit of the output layer of the acoustic feature DNN outputs the acoustic feature of the phoneme frame corresponding to the language feature of the phoneme frame given to the input device.
図2は、図1に示した事前学習部14を説明するための図である。図2に示すように、事前学習部14は、テキスト解析部14aと音響分析部14bを含む。図3に示すように、テキスト解析部14aは、テキスト解析手段140、フレーム処理手段142および正規化処理手段144を含む。
FIG. 2 is a diagram for explaining the
テキスト解析手段140は、記憶部12の音声コーパスから読み出されたテキストに対して形態素解析などのテキスト解析を行い、音素毎に音素の言語特徴量を生成し、音素の言語特徴量をフレーム処理手段142および正規化処理手段144に出力するとともに、音素の言語特徴量に含まれる音素ラベルを音響分析部14bに出力する。
The text analysis means 140 performs text analysis such as morphological analysis on the text read from the speech corpus of the
ここで、音素の言語特徴量は、テキスト解析により生成された情報を意味する。たとえば、テキスト解析により生成された音素の言語特徴量は、音素毎に、音素ラベル、アクセントの位置、品詞情報、アクセント句情報、呼気段落情報および総数情報などの各種の情報を含む。ただし、音素ラベルは、テキストを構成する音素を特定するための情報(音素情報)であり、当該音素に加え、前後の音素も含まれる。 Here, the linguistic features of phonemes mean the information generated by the text analysis. For example, the linguistic feature quantity of a phoneme generated by text analysis includes various information such as a phoneme label, an accent position, part of speech information, an accent phrase information, an exhalation paragraph information, and a total number information for each phoneme. However, the phoneme label is information (phoneme information) for specifying the phonemes constituting the text, and in addition to the phonemes, the preceding and following phonemes are also included.
フレーム処理手段142は、テキスト解析手段140から、事前学習のための音素の言語特徴量を入力されるとともに、音響分析部14bから音素の継続長を入力される。フレーム処理手段142は、事前学習のための音素の言語特徴量および音素の継続長に基づいて、音素の継続長が示す音素フレーム数分の音素フレームの言語特徴量を生成する。生成された音素フレームの言語特徴量は、正規化処理手段144に出力される。
In the frame processing means 142, the language feature amount of the phoneme for pre-learning is input from the text analysis means 140, and the continuation length of the phoneme is input from the
正規化処理手段144は、音素の言語特徴量および音素フレームの言語特徴量のそれぞれについて正規化を行い、正規化された音素言語特徴量を継続長DNNに出力するとともに、正規化された音素フレームの言語特徴量を音響特徴量DNNに出力する。 The normalization processing means 144 normalizes each of the language features of the phoneme and the language features of the phoneme frame, outputs the normalized phoneme language features to the continuous length DNN, and normalizes the phoneme frame. The language feature amount of is output to the acoustic feature amount DNN.
なお、正規化処理手段144における正規化処理については後で詳細に説明することにする。 The normalization process in the normalization processing means 144 will be described in detail later.
図4に示すように、音響分析部14bは、音素区切り処理手段150と音響分析手段152を含む。音素区切り処理手段150は、テキスト解析部14aから音素ラベルを入力され、記憶部12の音声コーパスから読み出された音声波形に対して、所定の学習データを用いて音響分析を行う。音素区切り処理手段150は、音素ラベルの示す音素が音声波形内でどの位置にあるかを特定し、音素の区切り位置を求める。求められた音素の区切り位置は、音響分析手段152に出力される。
As shown in FIG. 4, the
また、音素区切り処理手段150は、音素の区切り位置に基づいて、音素ラベルの示す音素の継続長を求める。上述したように、音素の継続長は、音素を構成する音素フレームの数で表される。求められた音素の継続長は、記憶部16の継続長DNNにおける出力層の各ユニットに出力されるとともに、テキスト解析部14a(フレーム処理手段142)に出力される。
Further, the phoneme dividing processing means 150 obtains the continuous length of the phoneme indicated by the phoneme label based on the phoneme dividing position. As described above, the duration of a phoneme is represented by the number of phoneme frames that make up the phoneme. The obtained phoneme continuation length is output to each unit of the output layer in the continuation length DNN of the
音響分析手段152は、音素区切り処理手段150から音素の区切り位置を入力され、記憶部12の音声コーパスから読み出された音声波形に対して音響分析を行い、音素を構成する複数の音素フレームのそれぞれについて、音素フレームの音響特徴量を生成する。たとえば、音素フレームの音響特徴量は、スペクトル係数、雑音性係数、ピッチ、音声/無声判定等の情報を含む。生成された音素フレームの音響特徴量は、記憶部16の音響特徴量DNNにおける出力層の各ユニットに出力される。
The acoustic analysis means 152 receives the phoneme delimiter position from the phoneme delimiter processing means 150, performs acoustic analysis on the voice waveform read from the voice corpus of the
なお、音響分析により音素の区切り位置及び音素の継続長を求め、音素フレームの音響特徴量を生成する手法は既知であるから、この実施例では、その詳細な説明は省略する。 Since the method of obtaining the phoneme dividing position and the phoneme continuation length by acoustic analysis and generating the acoustic feature amount of the phoneme frame is known, detailed description thereof will be omitted in this embodiment.
上述したように、テキスト解析部14aが、事前学習のための音素の言語特徴量を継続長DNNの入力層に出力するとともに、音響分析部14bが、音素の継続長を継続長DNNの出力層に出力する。これにより、継続長DNNの事前学習が行われる。また、テキスト解析部14aが、音素フレームの言語特徴量を音響特徴量DNNの入力層に出力するとともに、音響分析部14bが、音素フレームの音響特徴量を音響特徴量DNNの出力層に出力する。これにより、音響特徴量DNNの事前学習が行われる。
As described above, the
図5は、図1に示した合成処理部18の具体的な構成の一例を示す図である。図5に示すように、合成処理部18は、テキスト解析部180、継続長生成部182、音響特徴量生成部184および音声波形合成部186を含む。
FIG. 5 is a diagram showing an example of a specific configuration of the
テキスト解析部180は、図2に示したテキスト解析部14aと同様の処理を行う。具体的には、テキスト解析部180は、自由文章によるテキストを入力され、このテキストに対してテキスト解析を行い、音素毎に音素の言語特徴量を生成し、正規化する。テキスト解析部180は、テキスト解析にて生成および正規化した音素の言語特徴量に基づいて、図2に示したテキスト解析部14aにより生成された事前学習のための音素の言語特徴量と同様の音素の言語特徴量を生成する。そして、テキスト解析部180は、生成した音素の言語特徴量を、継続長生成部182および音響特徴量生成部184に出力する。
The
また、テキスト解析部180は、継続長生成部182および音響特徴量生成部184から、当該継続長生成部182および音響特徴量生成部184に出力した音素の言語特徴量に対応する音素の継続長を入力し、音素の言語特徴量及び音素の継続長に基づいて、音素の継続長が示す音素フレーム数分の音素フレームの言語特徴量を生成する。そして、テキスト解析部180は、音素フレームの言語特徴量を、継続長生成部182および音響特徴量生成部184に出力する。
Further, the
継続長生成部182は、テキスト解析部180から音素の言語特徴量を入力され、記憶部16の継続長DNNを用いて、音素の言語特徴量に基づいて音素の継続長を生成する。そして、継続長生成部182は、音素の継続長をテキスト解析部180に出力する。また、音響特徴量生成部184は、テキスト解析部180から音素フレームの言語特徴量を入力され、記憶部16の音響特徴量DNNを用いて、音素フレームの言語特徴量に基づいて、音素フレームの音響特徴量を生成し、音素フレームの音響特徴量を音声波形合成部186に出力する。
The continuation
音声波形合成部186は、音響特徴量生成部184から音素フレームの音響特徴量を入力され、音素フレームの音響特徴量に基づいて、音声波形を合成し、合成した音声波形を出力する。具体的には、音声波形合成部186は、音素フレームの音響特徴量に含まれるピッチ、雑音特性等の情報に基づいて、声帯音源波形を生成する。そして、音声波形合成部186は、声帯音源波形に対し、音素フレームの音響特徴量に含まれるスペクトル係数等の情報に基づいて声道フィルタ処理を施し、音声波形を合成する。つまり、テキストに対応する合成音声が生成および出力される。
The voice
なお、音素フレームの音響特徴量に基づいて音声波形を合成する手法は周知であるため、この実施例では、詳細な説明を省略する。 Since the method of synthesizing the voice waveform based on the acoustic features of the phoneme frame is well known, detailed description thereof will be omitted in this embodiment.
図6は、継続長DNNおよび音響特徴量DNNの入力データおよび出力データである音素の言語特徴量、音素フレームの言語特徴量、音素の継続長および音素フレームの音響特徴量の関係について説明するための図である。 FIG. 6 is for explaining the relationship between the phoneme language features, the phoneme frame language features, the phoneme continuation length, and the phoneme frame acoustic features, which are the input data and output data of the continuation length DNN and the acoustic features DNN. It is a figure of.
図6に示すように、1発話分のテキストを「あれがこれで、それはどれ。」とした場合には、呼気段落は「あれがこれで」と「それはどれ」である。また、この場合、「あれがこれで」のアクセント句は「あれが」と「これで」である。さらに、この場合、「あれが」のモーラは、「あ」、「れ」および「が」である。この場合、「あ」の音素ラベルは「a」とされ、「れ」の音素ラベルは「r」および「e」とされ、「が」の音素ラベルは「g」および「a」とされる。図6に示す例では、音素ラベル「a」、「r」、「e」、「g」および「a」の音素の継続長は、それぞれ、「6」、「3」、「5」、「5」、「5」および「3」とする。このように、発話、呼気段落、アクセント句、モーラ、音素は階層的な構造となっており、これらに関する属性を要素とする情報も階層的な構造となっている。上述したように、この実施例では、音素フレームの1フレームの長さは、5msecである。 As shown in FIG. 6, when the text for one utterance is "that is this and which is it.", The exhalation paragraph is "that is this" and "that is which". Also, in this case, the accent phrases of "that is this" are "that is" and "this is". Further, in this case, the mora of "that" is "a", "re", and "ga". In this case, the phoneme label of "a" is "a", the phoneme label of "re" is "r" and "e", and the phoneme label of "ga" is "g" and "a". .. In the example shown in FIG. 6, the phoneme continuation lengths of the phoneme labels "a", "r", "e", "g" and "a" are "6", "3", "5" and "a", respectively. Let it be "5", "5" and "3". In this way, utterances, exhalation paragraphs, accent phrases, mora, and phonemes have a hierarchical structure, and information related to these attributes is also a hierarchical structure. As described above, in this embodiment, the length of one frame of the phoneme frame is 5 msec.
図6に示すように、音素ラベル「a」の時間区間において、この1音素に対応して、1組の音素の言語特徴量(上記の各情報)が生成され、6組の音素フレームの言語特徴量(の各情報)が生成され、6組の音素フレームの音響特徴量(の各情報)が生成される。また、音素ラベル「r」の時間区間において、この1音素に対応して、1組の音素の言語特徴量が生成され、3組の音素フレームの言語特徴量が生成され、3組の音素フレームの音響特徴量が生成される。されに、音素ラベル「e」の時間区間において、この1音素に対応して、1組の音素の言語特徴量が生成され、5組の音素フレームの言語特徴量が生成され、5組の音素フレームの音響特徴量が生成される。 As shown in FIG. 6, in the time interval of the phoneme label “a”, the language features of one set of phonemes (each of the above information) are generated corresponding to this one phoneme, and the languages of the six phoneme frames are generated. The feature amount (each information) is generated, and the acoustic feature amount (each information) of 6 sets of phoneme frames is generated. Further, in the time interval of the phoneme label "r", the linguistic features of one set of phonemes are generated corresponding to this one phoneme, the linguistic features of three sets of phoneme frames are generated, and three sets of phoneme frames are generated. Acoustic features are generated. In addition, in the time interval of the phoneme label "e", the linguistic features of one set of phonemes are generated corresponding to this one phoneme, the linguistic features of five sets of phoneme frames are generated, and five sets of phonemes are generated. The acoustic features of the frame are generated.
このように、事前学習において、継続長DNNの入力層の各ユニットには、音素の言語特徴量が与えられ、出力層のユニットには、音素の継続長が与えられ、この事前学習は音素を単位として行われる。つまり、継続長DNNには、音素毎に、音素の言語特徴量および音素の継続長が与えられ、事前学習が行われる。また、音声合成においては、音素毎に、継続長DNNを用いて、音素の言語特徴量に基づいて、音素の継続長が生成され出力される。 Thus, in the pre-learning, each unit of the input layer of the continuation length DNN is given the linguistic feature of the phoneme, and the unit of the output layer is given the continuation length of the phoneme, and this pre-learning gives the phoneme. It is done as a unit. That is, the continuation length DNN is given the language feature amount of the phoneme and the continuation length of the phoneme for each phoneme, and pre-learning is performed. Further, in speech synthesis, the continuation length of a phoneme is generated and output based on the linguistic features of the phoneme by using the continuation length DNN for each phoneme.
また、上述したように、事前学習において、音響特徴量DNNの入力層の各ユニットには、音素フレームの言語特徴量が与えられ、出力層の各ユニットには、音素フレームの音響特徴量が与えられ、この事前学習は音素フレームを単位として行われる。つまり、音響特徴量DNNには、音素フレーム毎に、音素フレームの言語特徴量および音素フレームの音響特徴量が与えられ、事前学習が行われる。音声合成においては、音素フレーム毎に、音響特徴量DNNを用いて、音素フレームの言語特徴量に基づいて、音素フレームの音響特徴量が生成され、出力される。 Further, as described above, in the pre-learning, each unit of the input layer of the acoustic feature DNN is given the language feature of the phoneme frame, and each unit of the output layer is given the acoustic feature of the phoneme frame. This pre-learning is performed in units of phoneme frames. That is, the acoustic feature DNN is given the language feature of the phoneme frame and the acoustic feature of the phoneme frame for each phoneme frame, and pre-learning is performed. In speech synthesis, the acoustic feature amount DNN of the phoneme frame is used for each phoneme frame, and the acoustic feature amount of the phoneme frame is generated and output based on the language feature amount of the phoneme frame.
図7は言語特徴量のデータの一例を示す図である。上述したように、言語特徴量は、音素に関する属性、モーラに関する属性、アクセント句に関する属性、呼気段落に関する属性および発話に関する属性を含み、時刻tにおいてd次元のベクトルで表される。言語特徴量としては、時刻tにおける各属性の情報が数値で表される。各属性の詳細についての説明は省略するが、一例として、アクセント句に関する属性には、「当該アクセント句中のモーラの昇順位置」が含まれる。ただし、「当該」とは、正規化処理を行う場合の処理の対象であることを意味する。 FIG. 7 is a diagram showing an example of language feature data. As described above, the language feature quantity includes attributes related to phonemes, attributes related to mora, attributes related to accent phrases, attributes related to exhalation paragraphs, and attributes related to utterance, and is represented by a d-dimensional vector at time t. As the language feature quantity, the information of each attribute at time t is represented by a numerical value. Although the details of each attribute will be omitted, as an example, the attribute related to the accent phrase includes "ascending position of the mora in the accent phrase". However, "corresponding" means that it is the target of the processing when the normalization processing is performed.
ここで、上述した正規化処理手段144には、テキスト解析手段140でテキスト解析された音素の言語特徴量と、テキスト解析された音素の言語特徴量に、フレーム処理手段142で処理を施された音素フレームの言語特徴量が入力される。入力される言語特徴量はベクトル系列であり、数1で示すことができる。正規化処理手段144は、数2に示すように、第1の属性(第1属性値)を、当該第1の属性とは異なる属性であり、かつ当該第1の属性よりも絶対値の大きいまたは等しい第2の属性(第2属性値)で除することで言語特徴量を正規化し、正規化した言語特徴量を出力する。ただし、第1の属性と第2の属性は関連があるものとする。また、1発話分の言語特徴量Lは、図7に示したように、時刻tにおけるd次元の属性を要素に持つ言語特徴量ベクトルの系列である。ただし、数2において、|・|は絶対値を意味する。なお、この実施例では、第1属性値の絶対値は、第2属性値の絶対値以下である。
Here, in the above-mentioned normalization processing means 144, the linguistic features of the phonemes text-analyzed by the text analysis means 140 and the linguistic features of the text-analyzed phonemes are processed by the frame processing means 142. The language features of the phoneme frame are input. The input language features are vector series and can be represented by
また、上記の「関連があるもの」について図6および図7を用いて説明する。テキスト解析手段140によってテキストを解析すると、図7のように、発話、呼気段落、アクセント句、モーラ、音素に関する属性を要素とする情報が得られる。これらの情報は、図6のように階層的な構造となっており、各階層の情報は主に下位の階層の情報で構成される。たとえば、アクセント句の階層は、モーラと音素の階層を下位に持ち、アクセント句の属性には、当該アクセント句中のモーラの昇順位置や、当該アクセント句中のモーラの総数などがある。よって、この実施例の正規化処理手段144における正規化処理では、基本的に、位置に関する属性は同じ階層という関連性のもとで同じ階層の総数に関する属性で除され、総数に関する属性は総数という関連性のもとで別の階層の総数に関する属性で除されることになる。また、継続長に関しては総数と同様である。なお、正規化処理はすべての階層に対して適用される。 Further, the above "related items" will be described with reference to FIGS. 6 and 7. When the text is analyzed by the text analysis means 140, as shown in FIG. 7, information having attributes related to utterances, exhalation paragraphs, accent phrases, mora, and phonemes can be obtained. These pieces of information have a hierarchical structure as shown in FIG. 6, and the information of each layer is mainly composed of the information of the lower layers. For example, the hierarchy of accent phrases has a hierarchy of mora and phonemes at a lower level, and the attributes of the accent phrase include the ascending position of the mora in the accent phrase and the total number of mora in the accent phrase. Therefore, in the normalization process in the normalization processing means 144 of this embodiment, basically, the attribute related to the position is divided by the attribute related to the total number of the same layer under the relation of the same layer, and the attribute related to the total number is called the total number. Under relevance, it will be divided by the attribute related to the total number of different hierarchies. The continuation length is the same as the total number. The normalization process is applied to all layers.
数2に示す正規化手法は、非特許文献1および非特許文献2のようにすべての学習データから計算した平均と分散または最小値と最大値のような当該発話以外の条件が入ることはなく、1発話内の限られた条件で計算されるため外れ値が発生しない。そのため、外れ値による予測性能の低下を回避することができ、従来よりも安定した音響特徴量の予測を可能にする。
The normalization method shown in
図8は図1に示した音声合成装置10のCPUの属性正規化処理の一例を示すフロー図である。この属性正規化処理についてのプログラム(「言語処理プログラム」に相当する)は、音声合成装置10のメモリに記憶され、CPUによって実行される。学習処理および音声合成処理に必要な他のプログラムおよびデータについても同様である。
FIG. 8 is a flow chart showing an example of the attribute normalization process of the CPU of the
また、この実施例では、言語特徴量に含まれる複数の属性のうちの「当該アクセント句中のモーラの昇順位置」の属性を正規化する場合の処理について説明する。詳細な説明は省略するが、他の属性についても同様の属性正規化処理が実行される。 Further, in this embodiment, a process for normalizing the attribute of "ascending position of mora in the accent phrase" among a plurality of attributes included in the language feature will be described. Although detailed description is omitted, the same attribute normalization process is executed for other attributes.
図8に示すように、CPUは、属性正規化処理を開始すると、ステップS1で、後述する第1属性値算出処理(図9参照)を実行し、ステップS3で、後述する第2属性値算出処理(図10参照)を実行する。 As shown in FIG. 8, when the CPU starts the attribute normalization process, the CPU executes the first attribute value calculation process (see FIG. 9) described later in step S1 and calculates the second attribute value described later in step S3. The process (see FIG. 10) is executed.
次のステップS5では、時刻についての変数tを初期化し、配列array m[T]を設定する。つまり、CPUは、変数tに0を代入し、音素フレームの最大値Tまでの要素(ここでは、当該アクセント句中のモーラの昇順位置)を格納可能な配列array m[T]を設定する。ただし、変数tはフレーム数をカウントするための変数である。これは、後述する第1属性値算出処理(図9)および第2属性値算出処理(図10)においても同じである。また、配列array m[T]は正規化された属性値を格納するための配列である。なお、最大値Tは1発話における音素フレームの総数である。 In the next step S5, the variable t for time is initialized and the array array m [T] is set. That is, the CPU assigns 0 to the variable t and sets an array m [T] capable of storing the elements up to the maximum value T of the phoneme frame (here, the ascending position of the mora in the accent clause). However, the variable t is a variable for counting the number of frames. This also applies to the first attribute value calculation process (FIG. 9) and the second attribute value calculation process (FIG. 10), which will be described later. The array array m [T] is an array for storing normalized attribute values. The maximum value T is the total number of phoneme frames in one utterance.
次のステップS7では、変数tが音素フレームの最大値Tよりも小さいかどうかを判断する。ステップS7で“NO”であれた、つまり、変数tが音素フレームの最大値T以上であれば、「当該アクセント句中のモーラの昇順位置」をすべてのモーラについて正規化したと判断し、属性正規化処理を終了する。 In the next step S7, it is determined whether or not the variable t is smaller than the maximum value T of the phoneme frame. If the value is "NO" in step S7, that is, if the variable t is equal to or greater than the maximum value T of the phoneme frame, it is determined that the "ascending position of the mora in the accent phrase" is normalized for all mora, and the attribute is attributed. End the normalization process.
一方、ステップS7で“YES”であれば、つまり、変数tが音素フレームの最大値T未満であれば、「当該アクセント句中のモーラの昇順位置」を正規化していないモーラが残っていると判断し、ステップS9で、昇順の位置が変数tにおける要素m[t]を算出し(m[t]=x[t]/y[t])、ステップS11で、変数tを1加算して(t=t+1)、ステップS7に戻る。 On the other hand, if "YES" in step S7, that is, if the variable t is less than the maximum value T of the phoneme frame, there remains a mora that does not normalize the "ascending position of the mora in the accent clause". Then, in step S9, the element m [t] whose ascending position is in the variable t is calculated (m [t] = x [t] / y [t]), and in step S11, the variable t is added by 1. (T = t + 1), the process returns to step S7.
図9は図8に示したステップS1および後述する図10のステップS51で実行されるCPUの第1属性値算出処理を示すフロー図である。以下、第1属性値算出処理について説明するが、既に説明した処理と同じ処理については、簡単に説明することにする。 FIG. 9 is a flow chart showing a first attribute value calculation process of the CPU executed in step S1 shown in FIG. 8 and step S51 of FIG. 10 described later. Hereinafter, the first attribute value calculation process will be described, but the same process as the process already described will be briefly described.
図9に示すように、CPUは、第1属性値算出処理を開始すると、ステップS21で、変数tおよび変数iを初期化するととに(t=0, i=1)、配列array x[T]を用意する(x[0],x[1],…,x[T-1])。ただし、変数iは、当該アクセント句中のモーラの昇順位置をカウントするための変数である。図10においても同じである。また、配列array x[T]は、各属性値についてのモーラの昇順位置を格納するための配列である。 As shown in FIG. 9, when the CPU starts the first attribute value calculation process, the variable t and the variable i are initialized in step S21 (t = 0, i = 1), and the array array x [T. ] Is prepared (x [0], x [1],…, x [T-1]). However, the variable i is a variable for counting the ascending position of the mora in the accent phrase. The same is true in FIG. The array array x [T] is an array for storing the ascending position of the mora for each attribute value.
次のステップS23では、変数tが音素フレームの最大値Tよりも小さいかどうかを判断する。ステップS23で“NO”であれば、第1属性値算出処理を終了して、図8に示した属性正規化処理にリターンする。 In the next step S23, it is determined whether or not the variable t is smaller than the maximum value T of the phoneme frame. If "NO" in step S23, the first attribute value calculation process is terminated, and the process returns to the attribute normalization process shown in FIG.
一方、ステップS23で“YES”であれば、ステップS25で、要素x[t]に変数iの数値を代入する。つまり、当該アクセント句における当該モーラの昇順の番号が割り当てられる。次のステップS27では、変数tにおいてモーラの終わりかどうかを判断する。ここでは、CPUは、変数tが当該モーラにおける最終フレームを示すかどうかを判断する。ステップS27で“YES”であれば、つまり、変数tにおいてモーラの終わりでなければ、ステップS31に進む。一方、ステップS27で“NO”であれば、つまり、変数tにおいてモーラの終わりであれば、ステップS29で、変数iを1加算して(i=i+1)、ステップS31に進む。 On the other hand, if "YES" in step S23, the numerical value of the variable i is assigned to the element x [t] in step S25. That is, the ascending number of the mora in the accent phrase is assigned. In the next step S27, it is determined whether the variable t is the end of the mora. Here, the CPU determines whether the variable t indicates the final frame in the mora. If "YES" in step S27, that is, if the variable t is not the end of the mora, the process proceeds to step S31. On the other hand, if it is "NO" in step S27, that is, if the mora ends in the variable t, the variable i is added by 1 in step S29 (i = i + 1), and the process proceeds to step S31.
ステップS31では、変数tにおいてアクセント句の終わりであるかどうかを判断する。ここでは、CPUは、変数tが当該アクセント句における最終フレームを示すかどうかを判断する。 In step S31, it is determined whether or not the variable t is the end of the accent phrase. Here, the CPU determines whether the variable t indicates the final frame in the accent clause.
ステップS31で“NO”であれば、変数tにおいてアクセント句の終わりでなければ、ステップS35に進む。一方、ステップS31で“YES”であれば、変数tにおいてアクセント句の終わりであれば、ステップS33で、変数iを初期値に設定し、ステップS35で、変数tを1加算して(t=t+1)、ステップS23に戻る。 If "NO" in step S31, the process proceeds to step S35 if it is not the end of the accent phrase in the variable t. On the other hand, if "YES" in step S31, if the end of the accent phrase in the variable t, the variable i is set to the initial value in step S33, and the variable t is added by 1 in step S35 (t =). t + 1), the process returns to step S23.
図10は図8に示したステップS3の第2属性値算出処理のフロー図である。図10に示すように、第2属性値算出処理を開始すると、ステップS51で、図9に示した第1属性値算出処理を実行する。 FIG. 10 is a flow chart of the second attribute value calculation process in step S3 shown in FIG. As shown in FIG. 10, when the second attribute value calculation process is started, the first attribute value calculation process shown in FIG. 9 is executed in step S51.
次のステップS53では、変数tおよび変数iを初期化するとともに(t=T, i=x[T-1])、配列array y[T]を用意する(y[0],y[1],…,y[T-1])。ただし、配列array y[T]は、第1属性値の各要素を正規化するための第2属性値(ここでは、、当該アクセント句中のモーラの総数)の各要素を格納するための配列である。なお、この第2属性値算出処理においては、配列array y[T]は末尾の要素y[T-1]から先頭の要素y[0]に向けて値が代入される。 In the next step S53, the variable t and the variable i are initialized (t = T, i = x [T-1]), and the array array y [T] is prepared (y [0], y [1]]. ,…, y [T-1]). However, the array array y [T] is an array for storing each element of the second attribute value (here, the total number of mora in the accent clause) for normalizing each element of the first attribute value. Is. In this second attribute value calculation process, the array array y [T] is assigned a value from the last element y [T-1] to the first element y [0].
続いて、ステップS55では、変数tが0よりも大きいかどうかを判断する。ステップS55で“NO”であれば、第2属性値算出処理を終了して、図8に示した属性正規化処理にリターンする。 Subsequently, in step S55, it is determined whether or not the variable t is larger than 0. If "NO" in step S55, the second attribute value calculation process is terminated, and the process returns to the attribute normalization process shown in FIG.
一方、ステップS55で“YES”であれば、ステップS57で、変数tを1減算して(t=t-1)、ステップS59で、変数tにおけるアクセント句の終わりかどうかを判断する。ステップS59で“NO”であれば、つまり、変数tにおけるアクセント句の終わりでなければ、ステップS63に進む。 On the other hand, if "YES" in step S55, the variable t is subtracted by 1 in step S57 (t = t-1), and in step S59, it is determined whether or not the end of the accent phrase in the variable t is reached. If "NO" in step S59, that is, if it is not the end of the accent phrase in the variable t, the process proceeds to step S63.
一方、ステップS59で“YES”であれば、つまり、変数tにおけるアクセント句の終わりであれば、ステップS61で、変数iに要素x[t]を代入し(i=x[t])、さらに、ステップS63で、要素y[t]に変数iを代入して(y[t]=i)、ステップS55に戻る。 On the other hand, if "YES" in step S59, that is, if it is the end of the accent clause in the variable t, the element x [t] is assigned to the variable i in step S61 (i = x [t]), and further. , In step S63, the variable i is assigned to the element y [t] (y [t] = i), and the process returns to step S55.
この実施例によれば、1発話内の値のみを用いて、言語的に関連する属性の比を取ることにより、言語特徴量を正規化するので、外れ値が発生するのを防止することができる。このため、音響特徴量の予測精度が良好である。 According to this embodiment, the linguistic features are normalized by taking the ratio of linguistically related attributes using only the values in one utterance, so that outliers can be prevented from occurring. it can. Therefore, the prediction accuracy of the acoustic feature amount is good.
また、この実施例によれば、外れ値が発生しないため、外れ値が発生するのを防止するために学習データを増やす必要が無い。つまり、この実施例によれば、少量の学習データであっても、音響特徴量の予測精度が良好である。 Further, according to this embodiment, since outliers do not occur, it is not necessary to increase the learning data in order to prevent outliers from occurring. That is, according to this embodiment, the prediction accuracy of the acoustic feature amount is good even with a small amount of learning data.
なお、この実施例では、第1属性値(Ltd)の絶対値が第2属性値(Ltδ)の絶対値以下であることを条件とすることにより(数2)、DNNの入力値が0から1の間(または範囲)に収まるように言語特徴量(の各属性)を正規化したが、これに限定される必要はない。たとえば、第1属性値の絶対値が第2属性値の絶対値よりも大きいことを条件とし、第1属性値(Ltd)および第2属性値(Ltδ)に所定の定数を加算したり乗算したりすることでスケールを変化させ、正規化後の値を0から1の範囲を超える値にするようにしてもよい。この場合、各属性値のスケールが変化するだけであるため、スケールを変化させる前と同様の効果が得られる。また、正規化後の値の範囲によっては、第2属性値の絶対値が第1属性値の絶対値より大きいこと(|Ltd|<|Ltδ|)を条件としてもよい。 In this embodiment, the input value of the DNN is set on the condition that the absolute value of the first attribute value (L td ) is equal to or less than the absolute value of the second attribute value (L t δ) (Equation 2). The language features (each attribute) have been normalized so that they fall between 0 and 1 (or in the range), but are not limited to this. For example, the absolute value of the first attribute value with the proviso greater than the absolute value of the second attribute value, or by adding a predetermined constant to the first attribute value (L td) and a second attribute value (L T.DELTA.) The scale may be changed by multiplying the value so that the value after normalization exceeds the range of 0 to 1. In this case, since the scale of each attribute value is only changed, the same effect as before the scale is changed can be obtained. Further, depending on the range of values after normalization, the condition may be that the absolute value of the second attribute value is larger than the absolute value of the first attribute value (| L td | <| L tδ |).
なお、上述の実施例で示した具体的な数値は単なる一例であり、限定されるべきではなく、実施される製品等に応じて適宜変更可能である。 It should be noted that the specific numerical values shown in the above-described examples are merely examples, and should not be limited, and can be appropriately changed depending on the product to be implemented and the like.
10 …音声合成装置
12、16 …記憶部
10 ...
Claims (12)
1発話分の前記言語特徴量ベクトル系列における第1の属性を、当該1発話分の前記言語特徴量ベクトル系列における当該第1の属性とは異なる第2の属性で正規化する正規化手段を備える、言語処理装置。 A language processing device that is input to the deep neural network of a speech synthesizer that generates synthetic speech and normalizes a language feature vector series composed of multiple different attributes.
A normalization means for normalizing the first attribute in the language feature quantity vector series for one utterance with a second attribute different from the first attribute in the language feature quantity vector series for the one utterance is provided. , Language processor.
前記言語処理装置のプロセッサに、1発話分の前記言語特徴量ベクトル系列における第1の属性を、当該1発話分の前記言語特徴量ベクトル系列における当該第1の属性とは異なる第2の属性で正規化する正規化ステップを実行させる、言語処理プログラム。 A language processing program that is input to the deep neural network of a speech synthesizer that generates synthetic speech and is executed by a language processor that normalizes a language feature vector series composed of multiple different attributes.
To the processor of the language processing device, the first attribute in the language feature quantity vector series for one utterance is set to a second attribute different from the first attribute in the language feature quantity vector series for the one utterance. A language processing program that executes a normalization step to normalize.
前記言語処理装置のプロセッサに、1発話分の前記言語特徴量ベクトル系列における第1の属性を、当該1発話分の前記言語特徴量ベクトル系列における当該第1の属性とは異なる第2の属性で正規化する処理を実行させる、言語処理方法。 It is a language processing method of a language processing device that is input to the deep neural network of a speech synthesizer that generates synthetic speech and normalizes a language feature vector series composed of multiple different attributes.
To the processor of the language processing device, the first attribute in the language feature quantity vector series for one utterance is set to a second attribute different from the first attribute in the language feature quantity vector series for the one utterance. A language processing method that executes normalization processing.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018244555A JP6840124B2 (en) | 2018-12-27 | 2018-12-27 | Language processor, language processor and language processing method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018244555A JP6840124B2 (en) | 2018-12-27 | 2018-12-27 | Language processor, language processor and language processing method |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2020106643A JP2020106643A (en) | 2020-07-09 |
JP6840124B2 true JP6840124B2 (en) | 2021-03-10 |
Family
ID=71448992
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2018244555A Active JP6840124B2 (en) | 2018-12-27 | 2018-12-27 | Language processor, language processor and language processing method |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6840124B2 (en) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP7469015B2 (en) * | 2019-10-02 | 2024-04-16 | 日本放送協会 | Learning device, voice synthesis device and program |
Family Cites Families (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP3270668B2 (en) * | 1995-10-31 | 2002-04-02 | ナショナル サイエンス カウンシル | Prosody synthesizer based on artificial neural network from text to speech |
CN110622240B (en) * | 2017-05-24 | 2023-04-14 | 日本放送协会 | Voice guide generating device, voice guide generating method and broadcasting system |
-
2018
- 2018-12-27 JP JP2018244555A patent/JP6840124B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
JP2020106643A (en) | 2020-07-09 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US9135910B2 (en) | Speech synthesis device, speech synthesis method, and computer program product | |
US7996222B2 (en) | Prosody conversion | |
JP5631915B2 (en) | Speech synthesis apparatus, speech synthesis method, speech synthesis program, and learning apparatus | |
JP3933750B2 (en) | Speech recognition method and apparatus using continuous density Hidden Markov model | |
JP5768093B2 (en) | Speech processing system | |
JP6499305B2 (en) | Speech synthesis apparatus, speech synthesis method, speech synthesis program, speech synthesis model learning apparatus, speech synthesis model learning method, and speech synthesis model learning program | |
JP6523893B2 (en) | Learning apparatus, speech synthesis apparatus, learning method, speech synthesis method, learning program and speech synthesis program | |
JP6293912B2 (en) | Speech synthesis apparatus, speech synthesis method and program | |
JPH04313034A (en) | Synthesized-speech generating method | |
Tamura et al. | Text-to-speech synthesis with arbitrary speaker's voice from average voice. | |
Hashimoto et al. | Trajectory training considering global variance for speech synthesis based on neural networks | |
Ming et al. | Fundamental frequency modeling using wavelets for emotional voice conversion | |
JP5411845B2 (en) | Speech synthesis method, speech synthesizer, and speech synthesis program | |
Yin et al. | Modeling F0 trajectories in hierarchically structured deep neural networks | |
JP6271748B2 (en) | Audio processing apparatus, audio processing method, and program | |
JP6121273B2 (en) | Speech learning model learning device, speech synthesizer, and methods and programs thereof | |
JP6840124B2 (en) | Language processor, language processor and language processing method | |
CN114270433A (en) | Acoustic model learning device, speech synthesis device, method and program | |
Phan et al. | A study in vietnamese statistical parametric speech synthesis based on HMM | |
JP2009069179A (en) | Device and method for generating fundamental frequency pattern, and program | |
Liao et al. | Speaker adaptation of SR-HPM for speaking rate-controlled Mandarin TTS | |
JP2009175345A (en) | Speech information processing device and its method | |
Gonzalvo et al. | HMM-based Spanish speech synthesis using CBR as F0 estimator | |
JP6748607B2 (en) | Speech synthesis learning apparatus, speech synthesis apparatus, method and program thereof | |
JP4684770B2 (en) | Prosody generation device and speech synthesis device |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20200214 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20201106 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20201124 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20210118 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20210202 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20210216 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6840124 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |