[go: up one dir, main page]

JP4176169B2 - 言語合成のためのランタイムアコースティックユニット選択方法及び装置 - Google Patents

言語合成のためのランタイムアコースティックユニット選択方法及び装置 Download PDF

Info

Publication number
JP4176169B2
JP4176169B2 JP14701397A JP14701397A JP4176169B2 JP 4176169 B2 JP4176169 B2 JP 4176169B2 JP 14701397 A JP14701397 A JP 14701397A JP 14701397 A JP14701397 A JP 14701397A JP 4176169 B2 JP4176169 B2 JP 4176169B2
Authority
JP
Japan
Prior art keywords
speech
sequence
instances
senone
training
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
JP14701397A
Other languages
English (en)
Other versions
JPH1091183A (ja
Inventor
ディー ヒューアン シェードン
ディー プランプ マイケル
アセロ アレハンドロ
エル アドコック ジェームズ
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Microsoft Corp
Original Assignee
Microsoft Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Microsoft Corp filed Critical Microsoft Corp
Publication of JPH1091183A publication Critical patent/JPH1091183A/ja
Application granted granted Critical
Publication of JP4176169B2 publication Critical patent/JP4176169B2/ja
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L13/00Speech synthesis; Text to speech systems
    • G10L13/06Elementary speech units used in speech synthesisers; Concatenation rules
    • G10L13/07Concatenation rules

Landscapes

  • Engineering & Computer Science (AREA)
  • Computational Linguistics (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • Acoustics & Sound (AREA)
  • Multimedia (AREA)
  • Machine Translation (AREA)
  • Electrophonic Musical Instruments (AREA)

Description

【0001】
【発明の属する技術分野】
本発明は、一般に、スピーチ合成システムに係り、より詳細には、スピーチ合成システムにおいてアコースティックユニットの選択を実行する方法及び装置に係る。
【0002】
【従来の技術】
連結的なスピーチ合成は、筆記テキストからスピーチを形成するようにスピーチ波形に対応するアコースティックユニットを連結することに基づく一種のスピーチ合成である。この分野で未解決となっている問題は、流暢で、明瞭なそして自然に発音するスピーチを得るためにアコースティックユニットを最適に選択しそして連結することである。
【0003】
多くの従来のスピーチ合成システムにおいては、アコースティックユニットがスピーチの発音ユニット、例えば、ジホーン(diphone) 、音素又はフレーズである。スピーチの発音ユニットを表すために、スピーチ波形のテンプレート即ちインスタンスが各アコースティックユニットと関連付けられる。インスタンスのストリングを単に連結してスピーチを合成する場合には、隣接インスタンスの境界にスペクトル不連続部が存在するために不自然な即ち「ロボット的発音」のスピーチになってしまうことがしばしばある。最良の自然に発音するスピーチを得るには、意図されたテキストに適したタイミング、強度及びイントネーション特性(即ち韻律学的特性)をもつ連結インスタンスを形成しなければならない。
【0004】
【発明が解決しようとする課題】
アコースティックユニットのインスタンスの連結から自然に発音するスピーチを形成するために、従来のシステムには2つの一般的な技術が使用されている。即ち、それらは、平滑化技術の使用と、長いアコースティックユニットの使用である。平滑化は、インスタンス間の境界で整合するようにインスタンスを調整することにより隣接インスタンス間のスペクトル不整合を排除するよう試みるものである。調整されたインスタンスは、滑らかに発音するスピーチを形成するが、平滑化を実現するためにインスタンスに操作が施されるために、スピーチは一般に不自然なものになる。
【0005】
長いアコースティックユニットを選択する場合は、通常、ジホーン(diphone) が使用される。というのは、それらが音素間の同時調音的効果を捕らえるからである。同時調音的効果とは、所与の音素に先行する音素及び後続する音素により所与の音素に及ぼされる効果である。ユニット当たり3つ以上の音素を有する長いユニットを使用する場合には、長いユニットにわたり同時調音的効果を発生しそして捕らえる境界の数を減少する上で役立つ。長いユニットを使用する場合には、質の高い発音スピーチが得られるが、著しい量のメモリを必要とする。加えて、制限のない入力テキストと共に長いユニットを使用することは、モデルをカバーすることが保証できないために、問題となる。
【0006】
【課題を解決するための手段】
本発明は、自然に発音するスピーチを形成するスピーチ合成システム及び方法に関する。既に話されたスピーチのトレーニングデータから、ジホーン、トリホーン(triphone)等のアコースティックユニットの多数のインスタンスが発生される。これらインスタンスは、関連する音を発生するのに使用されるスピーチ信号又は波形のスペクトル表示に対応する。トレーニングデータから発生されたインスタンスは剪定されて、インスタンスの健全なサブセットを形成する。
【0007】
合成システムは、入力言語表現に存在する各アコースティックユニットの1つのインスタンスを連結する。インスタンスの選択は、隣接インスタンスの境界間のスペクトル歪に基づく。これは、入力言語表現に存在するインスタンスの考えられるシーケンスを列挙し、そこから、シーケンスの隣接インスタンスの全ての境界間のスペクトル歪を最小にする1つを選択するように行うことができる。次いで、インスタンスの最良のシーケンスを用いて、入力言語表現に対応する話されたスピーチを形成するスピーチ波形が発生される。
【0008】
【発明の実施の形態】
本発明の上記特徴及び効果は、同じ要素が同じ参照文字で表された添付図面を参照した本発明の好ましい実施形態の以下の詳細な説明から明らかとなろう。図面は、必ずしも正しいスケールではなく、本発明の原理を示すために強調されている。
【0009】
好ましい実施形態は、多数のインスタンスの選択から入力テキストを合成するのに必要な各アコースティックユニットの1つのインスタンスを選択し、そしてその選択されたインスタンスを連結することにより、自然に発音するスピーチを形成する。スピーチ合成システムは、システムの分析又はトレーニング段階中にアコースティックユニットの多数のインスタンスを発生する。この段階中に、各アコースティックユニットの多数のインスタンスが、特定の言語に最も生じ易いスピーチパターンを反映するスピーチ発声から形成される。この段階中に累積されたインスタンスは、次いで、ほとんどの代表的なインスタンスを含む健全なサブセットを形成するように剪定される。好ましい実施形態では、種々の発音状況を表す最も確率の高いインスタンスが選択される。
【0010】
スピーチの合成中に、合成装置は、言語表現における各アコースティックユニットの最良のインスタンスを、ランタイムにおいて、インスタンスの全ての考えられる組み合わせに対して隣接インスタンスの境界間に存在するスペクトル及び韻律的歪の関数として選択することができる。このようにユニットを選択することにより、隣接ユニット間の境界に存在する周波数スペクトルを整合するためにユニットを平滑化する必要性が排除される。これは、不自然に修正されたユニットではなくて元の波形が使用されるので、より自然に発音するスピーチを形成する。
【0011】
図1は、本発明の好ましい実施形態に適したスピーチ合成システム10を示している。スピーチ合成システム10は、入力を受け取るための入力装置14を含む。この入力装置14は、例えば、マイクロホン、コンピュータターミナル等である。音声データ入力及びテキストデータ入力は、以下に詳細に述べる個別の処理要素によって処理される。入力装置14は、音声データを受け取ると、その音声入力をトレーニング要素13へ送り、トレーニング要素は、音声入力に対してスピーチ分析を実行する。入力装置14は、ユーザからの入力スピーチ発声又は記憶された発声パターンである入力音声データから対応するアナログ信号を発生する。このアナログ信号はアナログ/デジタルコンバータ16へ送られ、該コンバータは、アナログ信号をデジタルサンプルのシーケンスに変換する。デジタルサンプルは、次いで、特徴抽出器18へ送られ、これは、デジタル化された入力スピーチ信号のパラメータ表示を抽出する。好ましくは、特徴抽出器18は、デジタル化された入力スピーチ信号のスペクトル分析を実行し、入力スピーチ信号の周波数成分を表す係数を各々含むフレームのシーケンスを発生する。スペクトル分析を行う方法は、信号処理の分野で良く知られており、高速フーリエ変換、直線的予想コード化(LPC)、及びセプストラル(cepstral)係数を含む。特徴抽出器18は、スペクトル分析を行う従来のプロセッサでよい。好ましい実施形態では、スペクトル分析が10ミリ秒ごとに行われ、入力スピーチ信号が発声の一部分を表すフレームに分割される。しかしながら、本発明は、スペクトル分析の使用や、10ミリ秒のサンプリング時間フレームに限定されない。他の信号処理技術及び他のサンプリング時間フレームも使用できる。上記プロセスが全スピーチ信号に対して繰り返されて、フレームのシーケンスが発生され、これらは、分析エンジン20へ送られる。この分析エンジン20は、図2ないし7を参照して以下に詳細に述べる多数のタスクを実行する。
【0012】
分析エンジン20は、入力スピーチ発声又はトレーニングデータを分析して、スピーチ合成器36によって使用される隠れたマルコフモデルのセノン(senone)(即ち異なる発音モデルにわたる同様のマルコフ状態のクラスター)及びパラメータを発生する。更に、分析エンジン20は、トレーニングデータに存在する各アコースティックユニットの多数のインスタンスを発生し、そして合成器36により使用するためのこれらインスタンスのサブセットを形成する。分析エンジンは、セグメント化を実行するセグメント化要素21と、アコースティックユニットのインスタンスを選択する選択要素23とを備えている。これら要素の役割については、以下に詳細に説明する。分析エンジン20は、テキスト記憶装置30から得られる入力スピーチ発声の発音表示、ディクショナリ記憶装置22に記憶された各ワードの音素記述を含むディクショナリ、及びHMM記憶装置24に記憶されたセノンのテーブルを使用する。
【0013】
セグメント化要素21は、HMM記憶装置に記憶するためのHMMパラメータを得、そして入力発声をセノンへとセグメント化するという2つの目的をもつ。この2つの目的は、HMMパラメータのセットが与えられて入力スピーチをセグメント化することと、スピーチのセグメント化が与えられてHMMパラメータを再推定することとの間で交番する反復アルゴリズムによって達成される。このアルゴリズムは、各反復において入力発声を生じるHMMパラメータの確率を高める。このアルゴリズムは、収斂点に到達しそしてそれ以上反復してもトレーニング確率を実質的に高めないときに、停止される。
【0014】
入力発声のセグメント化が完了すると、選択要素23は、各アコースティックユニットの全ての考えられる発生から各アコースティックユニットの高度な代表的な発生(即ちジホーン)の小さなサブセットを選択し、そしてそれらサブセットをユニット記憶装置28に記憶する。発生についてのこの剪定は、以下に詳細に述べるように、HMM確率及び韻律学的パラメータの値に基づく。
【0015】
入力装置14は、テキストデータを受け取ると、そのテキストデータ入力を、スピーチ合成を実行する合成要素15へ送る。図8ないし12は、本発明の好ましい実施形態に使用されるスピーチ合成技術を示し、これについては以下に詳細に説明する。自然言語プロセッサ(NLP)32は、入力テキストを受け取り、そしてテキストの各ワードに記述ラベルをタグ付けする。これらタグは、文字−音声(LTS)要素33及び韻律学的エンジン35へ送られる。文字−音声要素33は、ディクショナリ記憶装置22からのディクショナリ入力と、文字−音素ルール記憶装置40からの文字−音素ルールとを用いて、入力テキストの文字を音素に変換する。文字−音声要素33は、例えば、入力テキストの適切な発音を決定することができる。文字−音声要素33は、発音ストリング及びアクセント要素34に接続される。この発音ストリング及びアクセント要素34は、入力テキストに対して適切なアクセントをもつ発音ストリングを発生し、これは、韻律学的エンジン35へ送られる。文字−音声要素33及び発音アクセント要素34は、別の実施形態においては、単一の要素へとカプセル化されてもよい。韻律学的エンジン35は、発音ストリングを受け取り、休止マーカーを挿入し、そしてストリングにおける各音素の強度、ピッチ及び巾を指示する韻律学的パラメータを決定する。韻律学的エンジン35は、韻律学的データベース記憶装置42に記憶された韻律学的モデルを使用する。休止マーカーと、ピッチ、巾及び振幅を指示する韻律学的パラメータをもつ音素ストリングは、スピーチ合成器36へ送信される。韻律学的モデルは、話し手とは独立したものであってもよいし、話し手に従属するものであってもよい。
【0016】
スピーチ合成器36は、発音ストリングを、ジホーン又は他のアコースティックユニットの対応ストリングへと変換し、各ユニットに対する最良のインスタンスを選択し、韻律学的パラメータに基づいてインスタンスを調整し、そして入力テキストを表すスピーチ波形を発生する。以下の説明においては、スピーチ合成器が発音ストリングをジホーンのストリングに変換するものと仮定する。しかしながら、スピーチ合成器は、発音ストリングを別のアコースティックユニットのストリングに変換することもできる。これらタスクを実行する際に、合成器は、ユニット記憶装置28に記憶された各ユニットのインスタンスを使用する。
【0017】
それにより得られた波形は出力エンジン38へ送信することができ、この出力エンジンは、スピーチを発生するための音声装置を含むか、或いはスピーチ波形を他の処理要素又はプログラムへ転送して更に処理することもできる。
【0018】
スピーチ合成システム10の上記の要素は、パーソナルコンピュータやワークステーション等の単一の処理ユニットに組み込むことができる。しかしながら、本発明は、この特定のコンピュータアーキテクチャーに限定されるものでなく、並列処理システム、分散型処理システム等の他の構造(これに限定されないが)も使用できる。
【0019】
分析方法を説明する前に、好ましい実施形態に使用されるセノン、HMM及びフレーム構造について以下に述べる。各フレームは、入力スピーチ信号のあるセグメントに対応し、そのセグメントの周波数及びエネルギースペクトルを表すことができる。好ましい実施形態では、LPCセプストラル分析を用いて、スピーチ信号をモデリングし、そしてフレームのシーケンスを形成し、各フレームは、そのフレームの信号の部分に対して周波数及びエネルギースペクトルを表す次の39のセプストラル及びエネルギー係数を含む。(1)12のメル周波数セプストラル係数;(2)12のデルタメル周波数セプストラル係数;(3)12のデルタデルタメル周波数セプストラル係数;及び(4)エネルギー、デルタエネルギー及びデルタデルタエネルギー係数。
【0020】
隠れたマルコフモデル(HMM)は、スピーチの発音ユニットを表すのに使用される確率モデルである。好ましい実施形態では、これは、音素を表すのに使用される。しかしながら、本発明は、この発音に基づくものに限定されず、ジホーン、ワード、シラブル又はセンテンス(これに限定されないが)のような言語表現を使用することもできる。
【0021】
HMMは、遷移により接続された状態のシーケンスよりなる。各状態には、その状態がフレームに一致する見込みを指示する出力確率が関連している。各遷移ごとに、その遷移に続く見込みを指示する関連遷移確率がある。好ましい実施形態では、音素は、3状態HMMによりモデリングすることができる。しかしながら、本発明は、この形式のHMM構造に限定されるものではなく、それより多数の又は少数の状態を用いる他のものも使用できる。状態に関連した出力確率は、フレームに含まれたセプストラル係数のガウス確率密度関数(pdfs)の混合体であってもよい。ガウスのpdfsは好ましいものであるが、本発明は、この形式のpdfsに限定されない。ラプラス型pdfs(これに限定されないが)のような他のpdfsも使用できる。
【0022】
HMMのパラメータは、遷移及び出力確率である。これらパラメータの推定値は、トレーニングデータを用いる統計学的な技術により得られる。トレーニングデータからこれらのパラメータを推定するのに使用できる多数の公知アルゴリズムが存在する。
【0023】
本発明では2つの形式のHMMを使用できる。その第1は、左右の音素コンテクストで音素をモデリングするコンテクスト従属のHMMである。1組の音素及びそれに関連した左右の音素コンテクストよりなる所定のパターンが、コンテクスト従属のHMMによりモデリングされるべく選択される。これらのパターンが選択されるのは、最も頻繁に発生する音素及びそれら音素の最も頻繁に発生するコンテクストを表すからである。トレーニングデータは、これらのモデルのパラメータに対する推定値を与える。又、左右の音素コンテクストとは独立して音素をモデリングするように、コンテクストとは独立したHMMも使用できる。同様に、トレーニングデータは、コンテクストとは独立したモデルのパラメータに対する推定値を与える。隠れたマルコフモデルは、良く知られた技術であり、HMMの詳細な説明は、ヒューン氏等の「スピーチ認識のための隠れたマルコフモデル(Hidden Markov Models For Speech Recognition) 」、エジンバラ・ユニバーシティ・プレス、1990年に見ることができる。
【0024】
HMMの状態の出力確率分布はクラスター化されて、セノンを形成する。これは、大きな記憶要求と多大な計算時間を合成装置に課する状態の数を減少するために行われる。セノン及びセノンを構成するために用いる方法の詳細な説明は、M.ワング氏等の「セノンを伴う未知のトリホーンの予想(Predicting Unseen Triphones with Senones)」、Proc.ICASSP '93、第II巻、第311−314ページ、1993年に見ることができる。
【0025】
図2ないし7は、本発明の好ましい実施形態により実行される分析方法を示している。図2を参照すれば、分析方法50は、スピーチ波形のシーケンス(スピーチ信号又は発声とも称される)の形態でトレーニングデータを受け取ることにより開始され、これらのスピーチ波形は、図1を参照して上記したように、フレームに変換される。スピーチ波形は、センテンス、ワード又は何らかの形式の言語表現で構成することができ、ここでは、トレーニングデータと称する。
【0026】
上記のように、分析方法は、反復アルゴリズムを使用する。最初に、HMMのパラメータの初期セットが推定されると仮定する。図3は、HMMのパラメータを言語表現「This is great.」に対応する入力スピーチ信号に対していかに推定するかを示す。図3及び4を参照すれば、入力スピーチ信号即ち波形64に対応するテキスト62が、テキスト記憶装置30から得られる。テキスト62は、音素のストリング66に変換することができ、これは、テキストの各ワードに対し、ディクショナリ記憶装置22に記憶されたディクショナリから得られる。音素のストリング66を使用して、音素ストリングの音素に対応するコンテクスト従属のHMMのシーケンス68が発生される。例えば、図示されたコンテクストの音素/DH/は、DH(SIL,IH)70で示された関連するコンテクスト従属HMMを有し、左側の音素は、/SIL/即ち無音であり、そして右側の音素は、/IH/である。このコンテクスト従属のHMMは、3つの状態を有し、各状態にはセノンが関連している。この特定例においては、セノンは、状態1、2及び3に各々対応する20、1及び5である。音素DH(SIL,IH)70に対するコンテクスト従属のHMMは、次いで、残りのテキストに対する音素を表すコンテクスト従属のHMMと連結される。
【0027】
反復プロセスの次のステップにおいて、セグメント化要素21でフレームをセグメント化し、即ちフレームを各状態及びそれらの各セノンと時間整列することにより、スピーチ波形がHMMの状態に対してマップされる(図2のステップ52)。この例では、DH(SIL,IH)70及びセノン20(72)に対するHMMの状態1がフレーム1−4と整列され(78);同じモデル及びセノン1(74)の状態2がフレーム5−32と整列され(80);そして同じモデル及びセノン5(76)の状態3がフレーム33−40と整列される(82)。この整列は、HMMシーケンス68の各状態及びセノンに対して行われる。このセグメント化が行われると、HMMのパラメータが再推定される(ステップ54)。良く知られたバウム−ウェルチ(Baum-Welch)又は順方向−逆方向アルゴリズムを使用することができる。バウム−ウェルチアルゴリズムは、混合密度関数の取り扱いに精通しているので、好ましい。バウム−ウェルチアルゴリズムの詳細な説明は、上記のヒューン氏の参照文献に見ることができる。次いで、収斂点に到達したかどうかが決定される(ステップ56)。収斂点に到達していない場合は、新たなHMMモデルで発声のセットをセグメント化することによりプロセスが繰り返される(即ち、ステップ52が新たなHMMモデルで繰り返される)。収斂点に到達すると、HMMパラメータ及びセグメント化が最終的な形態となる。
【0028】
収斂点に到達すると、各ジホーンユニットのインスタンスに対応するフレームが、ユニットインスタンスとして、或いは各ジホーン又は他のユニットに対するインスタンスとして、ユニット記憶装置28に記憶される(ステップ58)。これは、図3ないし6に示されている。図3ないし5を参照すれば、音素ストリング66は、ジホーンストリング67に変換される。ジホーンとは、2つの隣接する音素の定常部分及びそれらの間の遷移を表す。例えば、図5において、ジホーンDH IH84は、音素DH(SIL,IH)86の状態2−3及び音素IH(DH,S)88の状態1−2から形成される。これら状態に関連したフレームは、ジホーンDH IH(0)92に対応するインスタンスとして記憶される。フレーム90は、スピーチ波形91に対応する。
【0029】
図2を参照すれば、分析方法に使用される各入力スピーチ発声に対してステップ54−58が繰り返される。これらのステップが完了すると、各ジホーンに対しトレーニングデータから累積されたインスタンスは、ステップ60に示すように、高い確率のインスタンスをカバーする健全な表示を含むサブセットへと剪定される。図7は、インスタンスのセットをいかに剪定するか示している。
【0030】
図7を参照すれば、方法60は、各ジホーンに対して繰り返される(ステップ100)。全てのインスタンスに対する巾の平均値及び変動が計算される(ステップ102)。各インスタンスは、1つ以上のフレームで構成することができ、各フレームは、ある時間インターバルにわたるスピーチ信号のパラメータ表示を表すことができる。各インスタンスの巾は、これらの時間インターバルの累積である。ステップ104において、平均値から特定量(例えば、標準偏差)だけずれるインスタンスは、破棄される。好ましくは、ジホーンに対し全インスタンス数の10ないし20%が破棄される。ピッチ及び振幅に対する平均値及び変動も計算される。平均値から所定量(例えば、±標準偏差)以上変化するインスタンスは、破棄される。
【0031】
ステップ106に示すように、各残りのインスタンスに対しステップ108−110が実行される。各インスタンスに対し、インスタンスがHMMにより形成された関連確率を計算することができる(ステップ108)。この確率は、上記ヒューンの参考文献に詳細に述べられた良く知られた順方向−逆方向アルゴリズムにより計算することができる。この計算は、特定のジホーンを表すHMMの各状態又はセノンに関連した出力及び遷移確率を使用する。ステップ110において、特定のジホーンに対し、セノンの関連ストリング69が形成される(図3を参照)。次いで、ステップ112において、始めと終わりのセノンが同一のセノンシーケンスをもつジホーンがグループ分けされる。各グループに対して、最も高い確率をもつセノンシーケンスがサブセットの一部分として選択される(ステップ114)。ステップ100−114の完了時に、特定のジホーンに対応するインスタンスのサブセットが存在する(図5を参照)。このプロセスが各ジホーンに対して繰り返され、各ジホーンごとに多数のインスタンスを含むテーブルが得られる。
【0032】
本発明の別の実施形態は、隣接ユニットに充分に整合するインスタンスを保持するものである。このような実施形態は、動的なプログラミングアルゴリズムを使用することにより歪を最小にしようとする。
【0033】
分析方法が完了すると、好ましい実施形態の合成方法が作用する。図8ないし12は、好ましい実施形態のスピーチ合成方法120において実行されるステップを示す。入力テキストは、ワードストリングに処理され(ステップ122)、そして入力テキストは、対応する音素ストリングへと変換される(ステップ124)。従って、省略ワード及び頭文字が、ワードフレーズを完成するように拡張される。この拡張の部分は、省略ワード及び頭文字が使用されたコンテクストを分析して、対応するワードを決定することを含むことができる。例えば、頭文字「WA」は、「Washington」へと変換することができ、そして省略形「Dr.」は、それが使用されたコンテクストに基づいて「Doctor」又は「Drive」へと変換することができる。文字及び数字ストリングは、テキスト等効物に置き換えることができる。例えば、「2/1/95」は、「1995年2月1日」に置き換えることができる。同様に、「$120.15」は、120ドル15セントに置き換えることができる。適切なイントネーションで話せるようにセンテンスの構文構造を決定するために構文分析を行うことができる。同形異義語の文字は、一次及び二次のアクセントマークを含む音に変換される。例えば、ワード「read」は、そのワードの特定の意味に基づいて異なる発音を行うことができる。これを考慮するために、ワードは、関連するアクセントマークを伴い関連する発音を表す音に変換される。
【0034】
ワードストリングが構成されると(ステップ122)、ワードストリングは、音素のストリングに変換される(ステップ124)。この変換を行うために、文字−音声要素33は、ディクショナリ22及び文字−音素ルール40を使用し、ワードストリングのワードの文字を、そのワードに対応する音素へと変換する。音素のストリングは、自然言語プロセッサからのタグと共に、韻律学的エンジン35へ送られる。タグは、ワードの分類の識別子である。ワードのタグは、その韻律学的特性に影響を及ぼし、従って、韻律学的エンジン35によって使用される。
【0035】
ステップ126において、韻律学的エンジン35は、休止の位置と、各音素の韻律学的特性をセンテンスベースで決定する。休止の位置は、自然韻律を得るために重要である。これは、センテンス内に含まれた句読点マークを使用しそして上記ステップ122で自然言語プロセッサ32により実行された構文分析を用いることにより決定することができる。各音素の韻律処理は、センテンスベースで決定される。しかしながら、本発明は、センテンスベースで韻律処理を行うことに限定されない。韻律処理は、ワード又は多数のセンテンス(これに限定されないが)のような他の言語学的特性に基づいて行うこともできる。韻律学的パラメータは、各音素の巾、ピッチ又はイントネーション、及び振幅で構成することができる。音素の巾は、ワードが話されるときにワードに置かれたアクセントによって影響を受ける。音素のピッチは、センテンスのイントネーションにより影響を受ける。例えば、平叙文及び疑問文は、異なるイントネーションパターンを形成する。韻律学的パラメータは、韻律学的データベース42に記憶された韻律学的モデルを用いて決定することができる。スピーチ合成の分野では韻律学的パラメータを決定する多数の方法が良く知られている。1つのこのような方法がJ.ピレハンバート著の「英語のイントネーションの音韻学及び音声学(The Phonology and Phonetics of English Intonation) 」、MIT Ph.D.論文(1989年)に掲載されている。休止マークと、ピッチ、巾及び振幅を示す韻律学的パラメータとをもつ音素ストリングがスピーチ合成装置36に送られる。
【0036】
ステップ128において、スピーチ合成装置36は、音素ストリングをジホーンストリングに変換する。これは、各音素をその右の隣接音素と対にすることにより行われる。図3は、音素ストリング66をジホーンストリング67に変換するところを示している。
【0037】
ジホーンストリングの各ジホーンごとに、そのジホーンの最良のユニットインスタンスがステップ130において選択される。好ましい実施形態では、最良のユニットの選択は、言語表現を表すジホーンストリングを形成するために連結できる隣接ジホーンの境界間の最小のスペクトル歪に基づいて決定される。図9ないし11は、言語表現「This is great.」に対するユニット選択を示す。図9は、言語表現「This is great.」を表すスピーチ波形を形成するのに使用できる種々のユニットインスタンスを示す。例えば、ジホーンDH IHに対して10個のインスタンスがあり(134)、ジホーンIH Sに対して100個のインスタンスがあり(136)、等々となる。ユニット選択は、上記ヒューンの参照文献に見られる公知のビタビサーチアルゴリズムと同様の形態で行われる。簡単に述べると、言語表現を表すスピーチ波形を形成するように連結できるインスタンスの全ての考えられるシーケンスが形成される。これが図10に示されている。次いで、インスタンスの隣接境界を横切るスペクトル歪が各シーケンスに対して決定される。この歪は、インスタンスの最後のフレームと、右に隣接するインスタンスの最初のフレームとの間の距離として計算される。スペクトル歪の計算に付加的な成分を追加できることに注意されたい。特に、2つのインスタンスを横切るピッチ及び振幅のユークリッド距離が、スペクトル歪計算の一部分として計算される。この成分は、ピッチ及び振幅の過剰な変調に起因するアコースティック歪を補償する。図11を参照すれば、インスタンスストリング140の歪は、フレーム142と144、146と148、150と152、154と165、158と160、162と164、166と168との間の距離である。最小の歪をもつシーケンスが、スピーチを発生する基礎として使用される。
【0038】
図12は、ユニット選択を決定するのに用いられるステップを示す。図12を参照すれば、ステップ172−182は、各ジホーンストリングに対して繰り返される(ステップ170)。ステップ172において、インスタンスの全ての考えられるシーケンスが形成される(図10を参照)。ステップ176ないし178は、各インスタンスシーケンスに対して繰り返される(ステップ174)。最後のインスタンスを除く各インスタンスに対し、インスタンスとその直前の(即ちシーケンスにおいてその右側の)インスタンスとの間の歪が、インスタンスの最後のフレームの係数とそれに続くインスタンスの最初のフレームの係数との間のユークリッド距離として計算される。この距離は、次の数1の数学的定義によって表される。
【数1】
Figure 0004176169
【0039】
ステップ180において、インスタンスシーケンスにおける全てのインスタンスに対する歪の和が計算される。反復174の終わりに、最良のインスタンスシーケンスがステップ182において選択される。最良のインスタンスシーケンスとは、累積歪が最小のシーケンスである。
【0040】
図8を参照すれば、最良のユニット選択が行われると、インスタンスは、入力テキストに対する韻律学的パラメータに基づいて連結され、そしてその連結されたインスタンスに対応するフレームから合成スピーチ波形が発生される(ステップ132)。この連結プロセスは、選択されたインスタンスに対応するフレームを変更して、所望の韻律学的特性に合致するようにする。多数の良く知られたユニット連結技術を使用することができる。
【0041】
以上に述べたように、本発明は、ジホーンのようなアコースティックユニットの多数のインスタンスを与えることにより合成スピーチの自然さを改善する。多数のインスタンスは、合成波形を発生するところの包括的な種々の波形をスピーチ合成システムに与える。この多様性は、合成システムが、境界にわたり最小のスペクトル歪を有するインスタンスを連結する見込みを高めるので、隣接インスタンスの境界に存在するスペクトルの不連続性を最小にする。これは、隣接境界のスペクトル周波数に整合するようにインスタンスを変更する必要性を排除するものである。変更されないインスタンスにより構成されたスピーチ波形は、波形を自然な形態で包含するので、より自然に発音するスピーチを形成する。
【0042】
以上、本発明の好ましい実施形態を詳細に説明したが、これは、本発明を単に例示するものに過ぎず、当業者であれば、上記した装置及び方法に対して変更を必要とする種々の異なる用途に本発明を適応させることができ、従って、上記の特定の説明は、本発明の範囲をそれに限定するものではないことをここに強調しておく。
【図面の簡単な説明】
【図1】好ましい実施形態のスピーチ合成方法を実施するのに使用されるスピーチ合成システムを示す図である。
【図2】好ましい実施形態に使用される分析方法のフローチャートである。
【図3】テキスト「This is great.」に対応するスピーチ波形をフレームへと整列する例を示す図である。
【図4】図3の例のスピーチ波形に対応するHMM及びセノンストリングを示す図である。
【図5】ジホーンDH IHのインスタンスを例示する図である。
【図6】ジホーンDH IHのインスタンスを例示する別の図である。
【図7】各ジホーンに対するインスタンスのサブセットを構成するのに用いられるステップを示すフローチャートである。
【図8】好ましい実施形態の合成方法のフローチャートである。
【図9】本発明の好ましい実施形態のスピーチ合成方法によりテキスト「This is great.」に対してスピーチをいかに合成するかを例示する図である。
【図10】テキスト「This is great.」に対するユニット選択方法を例示する図である。
【図11】テキスト「This is great.」に対応する1つのインスタンスストリングに対するユニット選択方法を例示する図である。
【図12】本発明のユニット選択方法のフローチャートである。

Claims (19)

  1. スピーチ合成器に格納されているコンピュータ読み取り可能な媒体であって、
    複数のスピーチユニットに対して複数の隠れたマルコフモデル(HMM)の推定を得るステップと、
    複数のスピーチ波形としてトレーニングデータを受け取るステップと、
    前記スピーチ波形をセグメント化するステップであって、
    前記スピーチ波形に関連したテキストを得るステップと、
    前記テキストを複数のトレーニングスピーチユニットから形成されたスピーチユニットストリングに変換するステップとを実行することによって、
    前記スピーチ波形をセグメント化するステップと、
    前記トレーニングスピーチユニットに基づいて前記複数のHMMを再推定するステップであって、各HMMは複数の状態を有し、各状態は対応するセノンを有するステップと、
    前記複数のスピーチ波形を発生する前記複数のHMMのパラメータの確率がしきい値レベルに到達するまでセグメント化と再推定の前記ステップを繰り返すステップと、
    各波形を1つ以上の状態および対応する前記複数のHMMのセノンにマップし、各トレーニングスピーチユニットに対応する複数のインスタンスを形成し、前記複数のインスタンスをスピーチユニットストアに記憶するステップと
    に応じて発生するスピーチユニットストアと、
    入力言語表現を入力スピーチユニットのシーケンスに変換するステップと、
    前記スピーチユニットストアにおいて、前記複数のインスタンスに基づいて前記入力スピーチユニットのシーケンスに対応する複数のインスタンスのシーケンスを発生するステップと、
    前記インスタンスのシーケンスにおける隣接するインスタンスの間の最小の相違を有する前記インスタンスのシーケンスの1つに基づいてスピーチを発生するステップとを実行することによって、
    前記入力言語表現を合成するよう設定されたスピーチ合成コンポーネントとしてコンピュータを機能させるためのプログラムを備えことを特徴とするコンピュータ読み取り可能な媒体
  2. 前記スピーチ波形は、複数のフレームから形成され、所定の時間インターバルの間、各フレームは、前記スピーチ波形の一部分のパラメータ表示に対応し、前記マップするステップは、
    前記フレームに関連したセノンを得るために、各フレームを前記複数のHMMにおける対応する状態に時間的に整列させることを含むことを特徴とする請求項1に記載のコンピュータ読み取り可能な媒体
  3. 前記マップするステップ
    前記トレーニングスピーチユニットの対応するインスタンスを得るために前記トレーニングスピーチユニットの各々を前記フレームのシーケンスとセノンの関連したシーケンスにマップすることと、
    前記トレーニングスピーチユニットの各々に対して前記複数のインスタンスを得るために前記トレーニングスピーチユニットの各々に対してマップするステップを繰り返すこととをさらに含むことを特徴とする請求項2に記載のコンピュータ読み取り可能な媒体
  4. グループ化されたセノンシーケンスを形成するために、共通の最初と最後のセノンを有するセノンのシーケンスをグループ化するステップと、
    前記セノンシーケンスが前記トレーニングスピーチユニットの前記対応するインスタンスを発生した見込みを指示する前記グループ化されたセノンシーケンスの各々に対する確率を計算するステップとをさらに備えるステップを実行することにより前記スピーチユニットストアが発生されることを特徴とする請求項に記載のコンピュータ読み取り可能な媒体
  5. 各グループ化されたセノンシーケンスに対して計算された前記確率に基づいて前記セノンシーケンスを剪定するステップをさらに備えるステップを実行することにより前記スピーチユニットストアが発生されることを特徴とする請求項に記載のコンピュータ読み取り可能な媒体
  6. 前記剪定するステップは、所望のしきい値より低い確率を有する前記グループ化された各セノンシーケンスにおいて全てのセノンシーケンスを破棄することを含むことを特徴とする請求項に記載のコンピュータ読み取り可能な媒体
  7. 前記破棄することは、最も高い確率を有するセノンシーケンスを除いて前記グループ化された各セノンシーケンスにおいて全てのセノンを破棄することを含むことを特徴とする請求項に記載のコンピュータ読み取り可能な媒体
  8. 望ましくない量が代表的な巾から異なっている巾を有するトレーニングスピーチユニットのインスタンスを破棄するステップをさらに備えるステップを実行することにより前記スピーチユニットストアが発生されることを特徴とする請求項7に記載のコンピュータ読み取り可能な媒体
  9. 望ましくない量が代表的なピッチ又は振幅から異なっているピッチ又は振幅を有する前記トレーニングスピーチユニットのインスタンスを破棄することをさらに備えるステップを実行することにより前記スピーチユニットストアが発生されることを特徴とする請求項に記載のコンピュータ読み取り可能な媒体
  10. 前記スピーチ合成器は、前記インスタンスのシーケンスの各々に対して、前記インスタンスのシーケンスにおける隣接するインスタンスの間の最小の相違を決定するステップを実行するように設定されていることを特徴とする請求項に記載のコンピュータ読み取り可能な媒体
  11. スピーチ合成を実行する方法であって、
    複数のスピーチユニットに対して複数の隠れたマルコフモデル(HMM)の推定を得ることと、
    複数のスピーチ波形としてトレーニングデータを受け取ることと、
    前記スピーチ波形をセグメント化することであって、
    前記スピーチ波形に関連したテキストを得るステップと、
    前記テキストを複数のトレーニングスピーチユニットから形成されたスピーチユニットストリングに変換するステップとを実行することによって、
    前記スピーチ波形をセグメント化することと、
    前記トレーニングスピーチユニットに基づいて前記複数のHMMを再推定することであって、各HMMは複数の状態を有し、各状態は対応するセノンを有することと、
    前記複数のスピーチ波形を発生する前記複数のHMMのパラメータの確率がしきい値レベルに到達するまで前記セグメント化と前記再推定を繰り返すことと、
    各波形を1つ以上の状態および対応する前記複数のHMMのセノンにマップし、各トレーニングスピーチユニットに対応する複数のスピーチユニットインスタンスを形成し、前記複数のスピーチユニットインスタンスを記憶することと、
    入力言語表現を受け取ることと、
    前記入力言語表現を入力スピーチユニットのシーケンスに変換することと、
    記憶された前記複数のスピーチユニットインスタンスに基づいて前記入力スピーチユニットのシーケンスに対応する複数のインスタンスのシーケンスを発生することと、
    前記インスタンスのシーケンスにおける隣接するインスタンスの間の最小の相違を有する前記インスタンスのシーケンスの1つに基づいてスピーチを発生することとを備えることを特徴とする方法。
  12. 前記スピーチ波形は、複数のフレームから形成され、所定の時間インターバルの間、各フレームは、前記スピーチ波形の一部分のパラメータ表示に対応し、前記マップすることは、
    前記フレームに関連したセノンを得るために、各フレームを前記複数のHMMにおける対応する状態に時間的に整列させることを含むことを特徴とする請求項11に記載の方法。
  13. 前記マップすることは、
    前記トレーニングスピーチユニットの対応するインスタンスを得るために前記トレーニングスピーチユニットの各々を前記フレームのシーケンスとセノンの関連したシーケンスにマップすることと、
    前記トレーニングスピーチユニットの各々に対して前記複数のインスタンスを得るために前記トレーニングスピーチユニットの各々に対してマップするステップを繰り返すこととをさらに含むことを特徴とする請求項12に記載の方法。
  14. グループ化されたセノンのシーケンスを形成するために、共通の最初と最後のセノンを有するセノンのシーケンスをグループ化するステップと、
    前記セノンシーケンスが前記トレーニングスピーチユニットの前記対応するインスタンスを発生した見込みを指示する前記グループ化されたセノンシーケンスの各々に対する確率を計算するステップとをさらに備えたことを特徴とする請求項13に記載の方法。
  15. 各グループ化されたセノンシーケンスに対して計算された前記確率に基づいて前記セノンシーケンスを剪定するステップをさらに備えたことを特徴とする請求項14に記載の方法。
  16. 前記剪定するステップは、所望のしきい値より低い確率を有する前記グループ化された各セノンシーケンスにおいて全てのセノンシーケンスを破棄することを含むことを特徴とする請求項15に記載の方法
  17. 前記破棄することは、最も高い確率を有するセノンシーケンスを除いて前記グループ化された各セノンシーケンスにおいて全てのセノンを破棄することを含むことを特徴とする請求項16に記載の方法
  18. 望ましくない量が代表的な巾から異なっている巾を有するトレーニングスピーチユニットのインスタンスを破棄するステップをさらに備えること特徴とする請求項1に記載の方法
  19. 望ましくない量が代表的なピッチ又は振幅から異なっているピッチ又は振幅を有する前記トレーニングスピーチユニットのインスタンスを破棄するステップをさらに備えることを特徴とする請求項1に記載の方法
JP14701397A 1996-04-30 1997-04-30 言語合成のためのランタイムアコースティックユニット選択方法及び装置 Expired - Lifetime JP4176169B2 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US08/648808 1996-04-30
US08/648,808 US5913193A (en) 1996-04-30 1996-04-30 Method and system of runtime acoustic unit selection for speech synthesis

Publications (2)

Publication Number Publication Date
JPH1091183A JPH1091183A (ja) 1998-04-10
JP4176169B2 true JP4176169B2 (ja) 2008-11-05

Family

ID=24602331

Family Applications (1)

Application Number Title Priority Date Filing Date
JP14701397A Expired - Lifetime JP4176169B2 (ja) 1996-04-30 1997-04-30 言語合成のためのランタイムアコースティックユニット選択方法及び装置

Country Status (5)

Country Link
US (1) US5913193A (ja)
EP (1) EP0805433B1 (ja)
JP (1) JP4176169B2 (ja)
CN (1) CN1121679C (ja)
DE (1) DE69713452T2 (ja)

Families Citing this family (243)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6036687A (en) * 1996-03-05 2000-03-14 Vnus Medical Technologies, Inc. Method and apparatus for treating venous insufficiency
US6490562B1 (en) 1997-04-09 2002-12-03 Matsushita Electric Industrial Co., Ltd. Method and system for analyzing voices
JP3667950B2 (ja) * 1997-09-16 2005-07-06 株式会社東芝 ピッチパターン生成方法
FR2769117B1 (fr) * 1997-09-29 2000-11-10 Matra Comm Procede d'apprentissage dans un systeme de reconnaissance de parole
US6807537B1 (en) * 1997-12-04 2004-10-19 Microsoft Corporation Mixtures of Bayesian networks
US7076426B1 (en) * 1998-01-30 2006-07-11 At&T Corp. Advance TTS for facial animation
JP3884856B2 (ja) * 1998-03-09 2007-02-21 キヤノン株式会社 音声合成用データ作成装置、音声合成装置及びそれらの方法、コンピュータ可読メモリ
US6418431B1 (en) * 1998-03-30 2002-07-09 Microsoft Corporation Information retrieval and speech recognition based on language models
US6101470A (en) * 1998-05-26 2000-08-08 International Business Machines Corporation Methods for generating pitch and duration contours in a text to speech system
DE69940747D1 (de) * 1998-11-13 2009-05-28 Lernout & Hauspie Speechprod Sprachsynthese mittels Verknüpfung von Sprachwellenformen
US6502066B2 (en) 1998-11-24 2002-12-31 Microsoft Corporation System for generating formant tracks by modifying formants synthesized from speech units
US6400809B1 (en) * 1999-01-29 2002-06-04 Ameritech Corporation Method and system for text-to-speech conversion of caller information
US6202049B1 (en) * 1999-03-09 2001-03-13 Matsushita Electric Industrial Co., Ltd. Identification of unit overlap regions for concatenative speech synthesis system
CA2366952A1 (en) * 1999-03-15 2000-09-21 British Telecommunications Public Limited Company Speech synthesis
US7082396B1 (en) 1999-04-30 2006-07-25 At&T Corp Methods and apparatus for rapid acoustic unit selection from a large speech corpus
US7369994B1 (en) 1999-04-30 2008-05-06 At&T Corp. Methods and apparatus for rapid acoustic unit selection from a large speech corpus
US6697780B1 (en) * 1999-04-30 2004-02-24 At&T Corp. Method and apparatus for rapid acoustic unit selection from a large speech corpus
DE19920501A1 (de) * 1999-05-05 2000-11-09 Nokia Mobile Phones Ltd Wiedergabeverfahren für sprachgesteuerte Systeme mit textbasierter Sprachsynthese
JP2001034282A (ja) * 1999-07-21 2001-02-09 Konami Co Ltd 音声合成方法、音声合成のための辞書構築方法、音声合成装置、並びに音声合成プログラムを記録したコンピュータ読み取り可能な媒体
US6725190B1 (en) * 1999-11-02 2004-04-20 International Business Machines Corporation Method and system for speech reconstruction from speech recognition features, pitch and voicing with resampled basis functions providing reconstruction of the spectral envelope
US7392185B2 (en) 1999-11-12 2008-06-24 Phoenix Solutions, Inc. Speech based learning/training system using semantic decoding
US7050977B1 (en) 1999-11-12 2006-05-23 Phoenix Solutions, Inc. Speech-enabled server for internet website and method
US7725307B2 (en) 1999-11-12 2010-05-25 Phoenix Solutions, Inc. Query engine for processing voice based queries including semantic decoding
US9076448B2 (en) 1999-11-12 2015-07-07 Nuance Communications, Inc. Distributed real time speech recognition system
US7010489B1 (en) * 2000-03-09 2006-03-07 International Business Mahcines Corporation Method for guiding text-to-speech output timing using speech recognition markers
US8645137B2 (en) 2000-03-16 2014-02-04 Apple Inc. Fast, language-independent method for user authentication by voice
JP4632384B2 (ja) * 2000-03-31 2011-02-16 キヤノン株式会社 音声情報処理装置及びその方法と記憶媒体
US7039588B2 (en) * 2000-03-31 2006-05-02 Canon Kabushiki Kaisha Synthesis unit selection apparatus and method, and storage medium
JP2001282278A (ja) * 2000-03-31 2001-10-12 Canon Inc 音声情報処理装置及びその方法と記憶媒体
JP3728172B2 (ja) * 2000-03-31 2005-12-21 キヤノン株式会社 音声合成方法および装置
US6865528B1 (en) 2000-06-01 2005-03-08 Microsoft Corporation Use of a unified language model
US7031908B1 (en) 2000-06-01 2006-04-18 Microsoft Corporation Creating a language model for a language processing system
US6684187B1 (en) 2000-06-30 2004-01-27 At&T Corp. Method and system for preselection of suitable units for concatenative speech
US6505158B1 (en) 2000-07-05 2003-01-07 At&T Corp. Synthesis-based pre-selection of suitable units for concatenative speech
WO2002017069A1 (en) * 2000-08-21 2002-02-28 Yahoo! Inc. Method and system of interpreting and presenting web content using a voice browser
US6990450B2 (en) * 2000-10-19 2006-01-24 Qwest Communications International Inc. System and method for converting text-to-voice
US7451087B2 (en) * 2000-10-19 2008-11-11 Qwest Communications International Inc. System and method for converting text-to-voice
US6871178B2 (en) * 2000-10-19 2005-03-22 Qwest Communications International, Inc. System and method for converting text-to-voice
US6990449B2 (en) * 2000-10-19 2006-01-24 Qwest Communications International Inc. Method of training a digital voice library to associate syllable speech items with literal text syllables
US20030061049A1 (en) * 2001-08-30 2003-03-27 Clarity, Llc Synthesized speech intelligibility enhancement through environment awareness
US8229753B2 (en) * 2001-10-21 2012-07-24 Microsoft Corporation Web server controls for web enabled recognition and/or audible prompting
US7711570B2 (en) * 2001-10-21 2010-05-04 Microsoft Corporation Application abstraction with dialog purpose
ITFI20010199A1 (it) 2001-10-22 2003-04-22 Riccardo Vieri Sistema e metodo per trasformare in voce comunicazioni testuali ed inviarle con una connessione internet a qualsiasi apparato telefonico
US20030101045A1 (en) * 2001-11-29 2003-05-29 Peter Moffatt Method and apparatus for playing recordings of spoken alphanumeric characters
US7483832B2 (en) * 2001-12-10 2009-01-27 At&T Intellectual Property I, L.P. Method and system for customizing voice translation of text to speech
US7266497B2 (en) * 2002-03-29 2007-09-04 At&T Corp. Automatic segmentation in speech synthesis
DE10230884B4 (de) * 2002-07-09 2006-01-12 Siemens Ag Vereinigung von Prosodiegenerierung und Bausteinauswahl bei der Sprachsynthese
JP4064748B2 (ja) * 2002-07-22 2008-03-19 アルパイン株式会社 音声発生装置、音声発生方法及びナビゲーション装置
CN1259631C (zh) * 2002-07-25 2006-06-14 摩托罗拉公司 使用韵律控制的中文文本至语音拼接合成系统及方法
US7236923B1 (en) 2002-08-07 2007-06-26 Itt Manufacturing Enterprises, Inc. Acronym extraction system and method of identifying acronyms and extracting corresponding expansions from text
US7308407B2 (en) * 2003-03-03 2007-12-11 International Business Machines Corporation Method and system for generating natural sounding concatenative synthetic speech
US8005677B2 (en) * 2003-05-09 2011-08-23 Cisco Technology, Inc. Source-dependent text-to-speech system
US8301436B2 (en) * 2003-05-29 2012-10-30 Microsoft Corporation Semantic object synchronous understanding for highly interactive interface
US7200559B2 (en) * 2003-05-29 2007-04-03 Microsoft Corporation Semantic object synchronous understanding implemented with speech application language tags
US7487092B2 (en) * 2003-10-17 2009-02-03 International Business Machines Corporation Interactive debugging and tuning method for CTTS voice building
US7409347B1 (en) * 2003-10-23 2008-08-05 Apple Inc. Data-driven global boundary optimization
US7643990B1 (en) * 2003-10-23 2010-01-05 Apple Inc. Global boundary-centric feature extraction and associated discontinuity metrics
US7660400B2 (en) * 2003-12-19 2010-02-09 At&T Intellectual Property Ii, L.P. Method and apparatus for automatically building conversational systems
US8160883B2 (en) * 2004-01-10 2012-04-17 Microsoft Corporation Focus tracking in dialogs
US7567896B2 (en) * 2004-01-16 2009-07-28 Nuance Communications, Inc. Corpus-based speech synthesis based on segment recombination
CN1755796A (zh) * 2004-09-30 2006-04-05 国际商业机器公司 文本到语音转换中基于统计技术的距离定义方法和系统
US7684988B2 (en) * 2004-10-15 2010-03-23 Microsoft Corporation Testing and tuning of automatic speech recognition systems using synthetic inputs generated from its acoustic models
US20060122834A1 (en) * 2004-12-03 2006-06-08 Bennett Ian M Emotion detection device & method for use in distributed systems
US7613613B2 (en) * 2004-12-10 2009-11-03 Microsoft Corporation Method and system for converting text to lip-synchronized speech in real time
US20060136215A1 (en) * 2004-12-21 2006-06-22 Jong Jin Kim Method of speaking rate conversion in text-to-speech system
US7418389B2 (en) * 2005-01-11 2008-08-26 Microsoft Corporation Defining atom units between phone and syllable for TTS systems
US20070011009A1 (en) * 2005-07-08 2007-01-11 Nokia Corporation Supporting a concatenative text-to-speech synthesis
JP2007024960A (ja) * 2005-07-12 2007-02-01 Internatl Business Mach Corp <Ibm> システム、プログラムおよび制御方法
US8677377B2 (en) 2005-09-08 2014-03-18 Apple Inc. Method and apparatus for building an intelligent automated assistant
US7633076B2 (en) 2005-09-30 2009-12-15 Apple Inc. Automated response to and sensing of user activity in portable devices
US8010358B2 (en) * 2006-02-21 2011-08-30 Sony Computer Entertainment Inc. Voice recognition with parallel gender and age normalization
US7778831B2 (en) * 2006-02-21 2010-08-17 Sony Computer Entertainment Inc. Voice recognition with dynamic filter bank adjustment based on speaker categorization determined from runtime pitch
EP1835488B1 (en) * 2006-03-17 2008-11-19 Svox AG Text to speech synthesis
JP2007264503A (ja) * 2006-03-29 2007-10-11 Toshiba Corp 音声合成装置及びその方法
US8027377B2 (en) * 2006-08-14 2011-09-27 Intersil Americas Inc. Differential driver with common-mode voltage tracking and method
US8234116B2 (en) * 2006-08-22 2012-07-31 Microsoft Corporation Calculating cost measures between HMM acoustic models
US9318108B2 (en) 2010-01-18 2016-04-19 Apple Inc. Intelligent automated assistant
US20080189109A1 (en) * 2007-02-05 2008-08-07 Microsoft Corporation Segmentation posterior based boundary point determination
JP2008225254A (ja) * 2007-03-14 2008-09-25 Canon Inc 音声合成装置及び方法並びにプログラム
US8886537B2 (en) 2007-03-20 2014-11-11 Nuance Communications, Inc. Method and system for text-to-speech synthesis with personalized voice
US8977255B2 (en) 2007-04-03 2015-03-10 Apple Inc. Method and system for operating a multi-function portable electronic device using voice-activation
US8321222B2 (en) * 2007-08-14 2012-11-27 Nuance Communications, Inc. Synthesis by generation and concatenation of multi-form segments
JP5238205B2 (ja) * 2007-09-07 2013-07-17 ニュアンス コミュニケーションズ,インコーポレイテッド 音声合成システム、プログラム及び方法
US9053089B2 (en) 2007-10-02 2015-06-09 Apple Inc. Part-of-speech tagging using latent analogy
US8620662B2 (en) 2007-11-20 2013-12-31 Apple Inc. Context-aware unit selection
US10002189B2 (en) 2007-12-20 2018-06-19 Apple Inc. Method and apparatus for searching using an active ontology
US9330720B2 (en) 2008-01-03 2016-05-03 Apple Inc. Methods and apparatus for altering audio output signals
US8065143B2 (en) 2008-02-22 2011-11-22 Apple Inc. Providing text input using speech data and non-speech data
US8996376B2 (en) 2008-04-05 2015-03-31 Apple Inc. Intelligent text-to-speech conversion
US10496753B2 (en) 2010-01-18 2019-12-03 Apple Inc. Automatically adapting user interfaces for hands-free interaction
US8464150B2 (en) 2008-06-07 2013-06-11 Apple Inc. Automatic language identification for dynamic text processing
US20100030549A1 (en) 2008-07-31 2010-02-04 Lee Michael M Mobile device having human language translation capability with positional feedback
US8768702B2 (en) 2008-09-05 2014-07-01 Apple Inc. Multi-tiered voice feedback in an electronic device
US8898568B2 (en) 2008-09-09 2014-11-25 Apple Inc. Audio user interface
US8583418B2 (en) 2008-09-29 2013-11-12 Apple Inc. Systems and methods of detecting language and natural language strings for text to speech synthesis
US8712776B2 (en) 2008-09-29 2014-04-29 Apple Inc. Systems and methods for selective text to speech synthesis
US8676904B2 (en) 2008-10-02 2014-03-18 Apple Inc. Electronic devices with voice command and contextual data processing capabilities
WO2010067118A1 (en) 2008-12-11 2010-06-17 Novauris Technologies Limited Speech recognition involving a mobile device
US8862252B2 (en) 2009-01-30 2014-10-14 Apple Inc. Audio user interface for displayless electronic device
US8788256B2 (en) * 2009-02-17 2014-07-22 Sony Computer Entertainment Inc. Multiple language voice recognition
US8442833B2 (en) * 2009-02-17 2013-05-14 Sony Computer Entertainment Inc. Speech processing with source location estimation using signals from two or more microphones
US8442829B2 (en) * 2009-02-17 2013-05-14 Sony Computer Entertainment Inc. Automatic computation streaming partition for voice recognition on multiple processors with limited memory
US8380507B2 (en) 2009-03-09 2013-02-19 Apple Inc. Systems and methods for determining the language to use for speech generated by a text to speech engine
US10540976B2 (en) 2009-06-05 2020-01-21 Apple Inc. Contextual voice commands
US9858925B2 (en) 2009-06-05 2018-01-02 Apple Inc. Using context information to facilitate processing of commands in a virtual assistant
US10241752B2 (en) 2011-09-30 2019-03-26 Apple Inc. Interface for a virtual digital assistant
US10255566B2 (en) 2011-06-03 2019-04-09 Apple Inc. Generating and processing task items that represent tasks to perform
US10241644B2 (en) 2011-06-03 2019-03-26 Apple Inc. Actionable reminder entries
US9431006B2 (en) 2009-07-02 2016-08-30 Apple Inc. Methods and apparatuses for automatic speech recognition
US8805687B2 (en) * 2009-09-21 2014-08-12 At&T Intellectual Property I, L.P. System and method for generalized preselection for unit selection synthesis
US8682649B2 (en) 2009-11-12 2014-03-25 Apple Inc. Sentiment prediction from textual data
US8600743B2 (en) 2010-01-06 2013-12-03 Apple Inc. Noise profile determination for voice-related feature
US8381107B2 (en) 2010-01-13 2013-02-19 Apple Inc. Adaptive audio feedback system and method
US8311838B2 (en) 2010-01-13 2012-11-13 Apple Inc. Devices and methods for identifying a prompt corresponding to a voice input in a sequence of prompts
US10276170B2 (en) 2010-01-18 2019-04-30 Apple Inc. Intelligent automated assistant
US10705794B2 (en) 2010-01-18 2020-07-07 Apple Inc. Automatically adapting user interfaces for hands-free interaction
US10679605B2 (en) 2010-01-18 2020-06-09 Apple Inc. Hands-free list-reading by intelligent automated assistant
US10553209B2 (en) 2010-01-18 2020-02-04 Apple Inc. Systems and methods for hands-free notification summaries
US8977584B2 (en) 2010-01-25 2015-03-10 Newvaluexchange Global Ai Llp Apparatuses, methods and systems for a digital conversation management platform
US8682667B2 (en) 2010-02-25 2014-03-25 Apple Inc. User profiling for selecting user specific voice input processing information
US8713021B2 (en) 2010-07-07 2014-04-29 Apple Inc. Unsupervised document clustering using latent semantic density analysis
US8719006B2 (en) 2010-08-27 2014-05-06 Apple Inc. Combined statistical and rule-based part-of-speech tagging for text-to-speech synthesis
US8719014B2 (en) 2010-09-27 2014-05-06 Apple Inc. Electronic device with text error correction based on voice recognition data
US10762293B2 (en) 2010-12-22 2020-09-01 Apple Inc. Using parts-of-speech tagging and named entity recognition for spelling correction
US10515147B2 (en) 2010-12-22 2019-12-24 Apple Inc. Using statistical language models for contextual lookup
US8781836B2 (en) 2011-02-22 2014-07-15 Apple Inc. Hearing assistance system for providing consistent human speech
US9262612B2 (en) 2011-03-21 2016-02-16 Apple Inc. Device access using voice authentication
US20120310642A1 (en) 2011-06-03 2012-12-06 Apple Inc. Automatically creating a mapping between text data and audio data
US10057736B2 (en) 2011-06-03 2018-08-21 Apple Inc. Active transport based notifications
US8812294B2 (en) 2011-06-21 2014-08-19 Apple Inc. Translating phrases from one language into another using an order-based set of declarative rules
US8706472B2 (en) 2011-08-11 2014-04-22 Apple Inc. Method for disambiguating multiple readings in language conversion
US8994660B2 (en) 2011-08-29 2015-03-31 Apple Inc. Text correction processing
US8762156B2 (en) 2011-09-28 2014-06-24 Apple Inc. Speech recognition repair using contextual information
US10134385B2 (en) 2012-03-02 2018-11-20 Apple Inc. Systems and methods for name pronunciation
US9483461B2 (en) 2012-03-06 2016-11-01 Apple Inc. Handling speech synthesis of content for multiple languages
US9280610B2 (en) 2012-05-14 2016-03-08 Apple Inc. Crowd sourcing information to fulfill user requests
US10417037B2 (en) 2012-05-15 2019-09-17 Apple Inc. Systems and methods for integrating third party services with a digital assistant
US8775442B2 (en) 2012-05-15 2014-07-08 Apple Inc. Semantic search using a single-source semantic model
US9514739B2 (en) * 2012-06-06 2016-12-06 Cypress Semiconductor Corporation Phoneme score accelerator
US9721563B2 (en) 2012-06-08 2017-08-01 Apple Inc. Name recognition system
WO2013185109A2 (en) 2012-06-08 2013-12-12 Apple Inc. Systems and methods for recognizing textual identifiers within a plurality of words
US9495129B2 (en) 2012-06-29 2016-11-15 Apple Inc. Device, method, and user interface for voice-activated navigation and browsing of a document
US9576574B2 (en) 2012-09-10 2017-02-21 Apple Inc. Context-sensitive handling of interruptions by intelligent digital assistant
US9547647B2 (en) 2012-09-19 2017-01-17 Apple Inc. Voice-based media searching
US8935167B2 (en) 2012-09-25 2015-01-13 Apple Inc. Exemplar-based latent perceptual modeling for automatic speech recognition
GB2508411B (en) * 2012-11-30 2015-10-28 Toshiba Res Europ Ltd Speech synthesis
KR102516577B1 (ko) 2013-02-07 2023-04-03 애플 인크. 디지털 어시스턴트를 위한 음성 트리거
US10572476B2 (en) 2013-03-14 2020-02-25 Apple Inc. Refining a search based on schedule items
US10642574B2 (en) 2013-03-14 2020-05-05 Apple Inc. Device, method, and graphical user interface for outputting captions
US9368114B2 (en) 2013-03-14 2016-06-14 Apple Inc. Context-sensitive handling of interruptions
US9977779B2 (en) 2013-03-14 2018-05-22 Apple Inc. Automatic supplementation of word correction dictionaries
US9733821B2 (en) 2013-03-14 2017-08-15 Apple Inc. Voice control to diagnose inadvertent activation of accessibility features
US10652394B2 (en) 2013-03-14 2020-05-12 Apple Inc. System and method for processing voicemail
US10078487B2 (en) 2013-03-15 2018-09-18 Apple Inc. Context-sensitive handling of interruptions
WO2014144579A1 (en) 2013-03-15 2014-09-18 Apple Inc. System and method for updating an adaptive speech recognition model
US10748529B1 (en) 2013-03-15 2020-08-18 Apple Inc. Voice activated device for use with a voice-based digital assistant
US11151899B2 (en) 2013-03-15 2021-10-19 Apple Inc. User training by intelligent digital assistant
AU2014233517B2 (en) 2013-03-15 2017-05-25 Apple Inc. Training an at least partial voice command system
CN104217149B (zh) * 2013-05-31 2017-05-24 国际商业机器公司 基于语音的生物认证方法及设备
WO2014197334A2 (en) 2013-06-07 2014-12-11 Apple Inc. System and method for user-specified pronunciation of words for speech synthesis and recognition
US9582608B2 (en) 2013-06-07 2017-02-28 Apple Inc. Unified ranking with entropy-weighted information for phrase-based semantic auto-completion
WO2014197336A1 (en) 2013-06-07 2014-12-11 Apple Inc. System and method for detecting errors in interactions with a voice-based digital assistant
WO2014197335A1 (en) 2013-06-08 2014-12-11 Apple Inc. Interpreting and acting upon commands that involve sharing information with remote devices
US10176167B2 (en) 2013-06-09 2019-01-08 Apple Inc. System and method for inferring user intent from speech inputs
KR101959188B1 (ko) 2013-06-09 2019-07-02 애플 인크. 디지털 어시스턴트의 둘 이상의 인스턴스들에 걸친 대화 지속성을 가능하게 하기 위한 디바이스, 방법 및 그래픽 사용자 인터페이스
KR101809808B1 (ko) 2013-06-13 2017-12-15 애플 인크. 음성 명령에 의해 개시되는 긴급 전화를 걸기 위한 시스템 및 방법
CN105453026A (zh) 2013-08-06 2016-03-30 苹果公司 基于来自远程设备的活动自动激活智能响应
US8751236B1 (en) 2013-10-23 2014-06-10 Google Inc. Devices and methods for speech unit reduction in text-to-speech synthesis systems
US10296160B2 (en) 2013-12-06 2019-05-21 Apple Inc. Method for extracting salient dialog usage from live data
US9997154B2 (en) * 2014-05-12 2018-06-12 At&T Intellectual Property I, L.P. System and method for prosodically modified unit selection databases
US9620105B2 (en) 2014-05-15 2017-04-11 Apple Inc. Analyzing audio input for efficient speech and music recognition
US10592095B2 (en) 2014-05-23 2020-03-17 Apple Inc. Instantaneous speaking of content on touch devices
US9502031B2 (en) 2014-05-27 2016-11-22 Apple Inc. Method for supporting dynamic grammars in WFST-based ASR
US9715875B2 (en) 2014-05-30 2017-07-25 Apple Inc. Reducing the need for manual start/end-pointing and trigger phrases
US9760559B2 (en) 2014-05-30 2017-09-12 Apple Inc. Predictive text input
US9842101B2 (en) 2014-05-30 2017-12-12 Apple Inc. Predictive conversion of language input
US9785630B2 (en) 2014-05-30 2017-10-10 Apple Inc. Text prediction using combined word N-gram and unigram language models
US10289433B2 (en) 2014-05-30 2019-05-14 Apple Inc. Domain specific language for encoding assistant dialog
US10078631B2 (en) 2014-05-30 2018-09-18 Apple Inc. Entropy-guided text prediction using combined word and character n-gram language models
US9734193B2 (en) 2014-05-30 2017-08-15 Apple Inc. Determining domain salience ranking from ambiguous words in natural speech
US9430463B2 (en) 2014-05-30 2016-08-30 Apple Inc. Exemplar-based natural language processing
US10170123B2 (en) 2014-05-30 2019-01-01 Apple Inc. Intelligent assistant for home automation
TWI566107B (zh) 2014-05-30 2017-01-11 蘋果公司 用於處理多部分語音命令之方法、非暫時性電腦可讀儲存媒體及電子裝置
US9633004B2 (en) 2014-05-30 2017-04-25 Apple Inc. Better resolution when referencing to concepts
US9338493B2 (en) 2014-06-30 2016-05-10 Apple Inc. Intelligent automated assistant for TV user interactions
US10659851B2 (en) 2014-06-30 2020-05-19 Apple Inc. Real-time digital assistant knowledge updates
US10446141B2 (en) 2014-08-28 2019-10-15 Apple Inc. Automatic speech recognition based on user feedback
US9818400B2 (en) 2014-09-11 2017-11-14 Apple Inc. Method and apparatus for discovering trending terms in speech requests
US10789041B2 (en) 2014-09-12 2020-09-29 Apple Inc. Dynamic thresholds for always listening speech trigger
US10127911B2 (en) 2014-09-30 2018-11-13 Apple Inc. Speaker identification and unsupervised speaker adaptation techniques
US9886432B2 (en) 2014-09-30 2018-02-06 Apple Inc. Parsimonious handling of word inflection via categorical stem + suffix N-gram language models
US9646609B2 (en) 2014-09-30 2017-05-09 Apple Inc. Caching apparatus for serving phonetic pronunciations
US9668121B2 (en) 2014-09-30 2017-05-30 Apple Inc. Social reminders
US10074360B2 (en) 2014-09-30 2018-09-11 Apple Inc. Providing an indication of the suitability of speech recognition
US9542927B2 (en) * 2014-11-13 2017-01-10 Google Inc. Method and system for building text-to-speech voice from diverse recordings
US10552013B2 (en) 2014-12-02 2020-02-04 Apple Inc. Data detection
US9711141B2 (en) 2014-12-09 2017-07-18 Apple Inc. Disambiguating heteronyms in speech synthesis
US9865280B2 (en) 2015-03-06 2018-01-09 Apple Inc. Structured dictation using intelligent automated assistants
US9721566B2 (en) 2015-03-08 2017-08-01 Apple Inc. Competing devices responding to voice triggers
US9886953B2 (en) 2015-03-08 2018-02-06 Apple Inc. Virtual assistant activation
US10567477B2 (en) 2015-03-08 2020-02-18 Apple Inc. Virtual assistant continuity
US9899019B2 (en) 2015-03-18 2018-02-20 Apple Inc. Systems and methods for structured stem and suffix language models
US9520123B2 (en) * 2015-03-19 2016-12-13 Nuance Communications, Inc. System and method for pruning redundant units in a speech synthesis process
US9842105B2 (en) 2015-04-16 2017-12-12 Apple Inc. Parsimonious continuous-space phrase representations for natural language processing
US10083688B2 (en) 2015-05-27 2018-09-25 Apple Inc. Device voice control for selecting a displayed affordance
US10127220B2 (en) 2015-06-04 2018-11-13 Apple Inc. Language identification from short strings
US10101822B2 (en) 2015-06-05 2018-10-16 Apple Inc. Language input correction
US10255907B2 (en) 2015-06-07 2019-04-09 Apple Inc. Automatic accent detection using acoustic models
US10186254B2 (en) 2015-06-07 2019-01-22 Apple Inc. Context-based endpoint detection
US11025565B2 (en) 2015-06-07 2021-06-01 Apple Inc. Personalized prediction of responses for instant messaging
US9959341B2 (en) 2015-06-11 2018-05-01 Nuance Communications, Inc. Systems and methods for learning semantic patterns from textual data
US10671428B2 (en) 2015-09-08 2020-06-02 Apple Inc. Distributed personal assistant
US10747498B2 (en) 2015-09-08 2020-08-18 Apple Inc. Zero latency digital assistant
CN105206264B (zh) * 2015-09-22 2017-06-27 百度在线网络技术(北京)有限公司 语音合成方法和装置
US9697820B2 (en) 2015-09-24 2017-07-04 Apple Inc. Unit-selection text-to-speech synthesis using concatenation-sensitive neural networks
US10366158B2 (en) 2015-09-29 2019-07-30 Apple Inc. Efficient word encoding for recurrent neural network language models
US11010550B2 (en) 2015-09-29 2021-05-18 Apple Inc. Unified language modeling framework for word prediction, auto-completion and auto-correction
US11587559B2 (en) 2015-09-30 2023-02-21 Apple Inc. Intelligent device identification
US10691473B2 (en) 2015-11-06 2020-06-23 Apple Inc. Intelligent automated assistant in a messaging environment
US10049668B2 (en) 2015-12-02 2018-08-14 Apple Inc. Applying neural network language models to weighted finite state transducers for automatic speech recognition
US10223066B2 (en) 2015-12-23 2019-03-05 Apple Inc. Proactive assistance based on dialog communication between devices
US10446143B2 (en) 2016-03-14 2019-10-15 Apple Inc. Identification of voice inputs providing credentials
US9934775B2 (en) 2016-05-26 2018-04-03 Apple Inc. Unit-selection text-to-speech synthesis based on predicted concatenation parameters
US9972304B2 (en) 2016-06-03 2018-05-15 Apple Inc. Privacy preserving distributed evaluation framework for embedded personalized systems
US10249300B2 (en) 2016-06-06 2019-04-02 Apple Inc. Intelligent list reading
US10049663B2 (en) 2016-06-08 2018-08-14 Apple, Inc. Intelligent automated assistant for media exploration
DK179309B1 (en) 2016-06-09 2018-04-23 Apple Inc Intelligent automated assistant in a home environment
US10067938B2 (en) 2016-06-10 2018-09-04 Apple Inc. Multilingual word prediction
US10490187B2 (en) 2016-06-10 2019-11-26 Apple Inc. Digital assistant providing automated status report
US10509862B2 (en) 2016-06-10 2019-12-17 Apple Inc. Dynamic phrase expansion of language input
US10192552B2 (en) 2016-06-10 2019-01-29 Apple Inc. Digital assistant providing whispered speech
US10586535B2 (en) 2016-06-10 2020-03-10 Apple Inc. Intelligent digital assistant in a multi-tasking environment
DK179343B1 (en) 2016-06-11 2018-05-14 Apple Inc Intelligent task discovery
DK179415B1 (en) 2016-06-11 2018-06-14 Apple Inc Intelligent device arbitration and control
DK201670540A1 (en) 2016-06-11 2018-01-08 Apple Inc Application integration with a digital assistant
DK179049B1 (en) 2016-06-11 2017-09-18 Apple Inc Data driven natural language event detection and classification
US10176819B2 (en) * 2016-07-11 2019-01-08 The Chinese University Of Hong Kong Phonetic posteriorgrams for many-to-one voice conversion
US10140973B1 (en) * 2016-09-15 2018-11-27 Amazon Technologies, Inc. Text-to-speech processing using previously speech processed data
US10593346B2 (en) 2016-12-22 2020-03-17 Apple Inc. Rank-reduced token representation for automatic speech recognition
DK179745B1 (en) 2017-05-12 2019-05-01 Apple Inc. SYNCHRONIZATION AND TASK DELEGATION OF A DIGITAL ASSISTANT
DK201770431A1 (en) 2017-05-15 2018-12-20 Apple Inc. Optimizing dialogue policy decisions for digital assistants using implicit feedback
KR102072627B1 (ko) * 2017-10-31 2020-02-03 에스케이텔레콤 주식회사 음성 합성 장치 및 상기 음성 합성 장치에서의 음성 합성 방법
CN110473516B (zh) * 2019-09-19 2020-11-27 百度在线网络技术(北京)有限公司 语音合成方法、装置以及电子设备

Family Cites Families (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4759068A (en) * 1985-05-29 1988-07-19 International Business Machines Corporation Constructing Markov models of words from multiple utterances
US4748670A (en) * 1985-05-29 1988-05-31 International Business Machines Corporation Apparatus and method for determining a likely word sequence from labels generated by an acoustic processor
US4783803A (en) * 1985-11-12 1988-11-08 Dragon Systems, Inc. Speech recognition apparatus and method
JPS62231993A (ja) * 1986-03-25 1987-10-12 インタ−ナシヨナル ビジネス マシ−ンズ コ−ポレ−シヨン 音声認識方法
US4866778A (en) * 1986-08-11 1989-09-12 Dragon Systems, Inc. Interactive speech recognition apparatus
US4817156A (en) * 1987-08-10 1989-03-28 International Business Machines Corporation Rapidly training a speech recognizer to a subsequent speaker given training data of a reference speaker
US5027406A (en) * 1988-12-06 1991-06-25 Dragon Systems, Inc. Method for interactive speech recognition and training
US5241619A (en) * 1991-06-25 1993-08-31 Bolt Beranek And Newman Inc. Word dependent N-best search method
US5349645A (en) * 1991-12-31 1994-09-20 Matsushita Electric Industrial Co., Ltd. Word hypothesizer for continuous speech decoding using stressed-vowel centered bidirectional tree searches
US5490234A (en) * 1993-01-21 1996-02-06 Apple Computer, Inc. Waveform blending technique for text-to-speech system
US5621859A (en) * 1994-01-19 1997-04-15 Bbn Corporation Single tree method for grammar directed, very large vocabulary speech recognizer

Also Published As

Publication number Publication date
EP0805433A3 (en) 1998-09-30
EP0805433B1 (en) 2002-06-19
JPH1091183A (ja) 1998-04-10
DE69713452D1 (de) 2002-07-25
US5913193A (en) 1999-06-15
EP0805433A2 (en) 1997-11-05
CN1121679C (zh) 2003-09-17
DE69713452T2 (de) 2002-10-10
CN1167307A (zh) 1997-12-10

Similar Documents

Publication Publication Date Title
JP4176169B2 (ja) 言語合成のためのランタイムアコースティックユニット選択方法及び装置
US11990118B2 (en) Text-to-speech (TTS) processing
US5905972A (en) Prosodic databases holding fundamental frequency templates for use in speech synthesis
YoshimuraÝ et al. Simultaneous modeling of spectrum, pitch and duration in HMM-based speech synthesis
US5970453A (en) Method and system for synthesizing speech
US7010488B2 (en) System and method for compressing concatenative acoustic inventories for speech synthesis
Huang et al. Whistler: A trainable text-to-speech system
O'shaughnessy Interacting with computers by voice: automatic speech recognition and synthesis
US5682501A (en) Speech synthesis system
Huang et al. Recent improvements on Microsoft's trainable text-to-speech system-Whistler
JP2826215B2 (ja) 合成音声生成方法及びテキスト音声合成装置
US10692484B1 (en) Text-to-speech (TTS) processing
US20040030555A1 (en) System and method for concatenating acoustic contours for speech synthesis
US11763797B2 (en) Text-to-speech (TTS) processing
KR100932538B1 (ko) 음성 합성 방법 및 장치
JP2005266349A (ja) 声質変換装置および声質変換方法ならびに声質変換プログラム
Mullah A comparative study of different text-to-speech synthesis techniques
Shen et al. Automatic selection of phonetically distributed sentence sets for speaker adaptation with application to large vocabulary Mandarin speech recognition
Matoušek ARTIC: a new czech text-to-speech system using statistical approach to speech segment database construciton
WO2010104040A1 (ja) 1モデル音声認識合成に基づく音声合成装置、音声合成方法および音声合成プログラム
KR100259777B1 (ko) 텍스트/음성변환기에서의최적합성단위열선정방법
Chomphan Towards the development of speaker-dependent and speaker-independent hidden markov model-based Thai speech synthesis
Matoušek Building a new Czech text-to-speech system using triphone-based speech units
Ho et al. Voice conversion between UK and US accented English.
Sajini et al. Speaker independent text to speech for Malayalam

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20040213

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20060901

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20061201

A602 Written permission of extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A602

Effective date: 20061208

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20070228

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20080722

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20080820

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110829

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110829

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120829

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130829

Year of fee payment: 5

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313113

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

EXPY Cancellation because of completion of term