[go: up one dir, main page]

JP2006048058A - 多言語による名称の音声認識のための方法とシステム - Google Patents

多言語による名称の音声認識のための方法とシステム Download PDF

Info

Publication number
JP2006048058A
JP2006048058A JP2005228583A JP2005228583A JP2006048058A JP 2006048058 A JP2006048058 A JP 2006048058A JP 2005228583 A JP2005228583 A JP 2005228583A JP 2005228583 A JP2005228583 A JP 2005228583A JP 2006048058 A JP2006048058 A JP 2006048058A
Authority
JP
Japan
Prior art keywords
name
language
names
feature vector
speech recognition
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2005228583A
Other languages
English (en)
Other versions
JP4468264B2 (ja
Inventor
Xiao-Lin Ren
シャオ−リン レン
Xin He
シン ホ
Fang Sun
ファン スン
Yaxin Zhang
ヤシン チャン
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Motorola Solutions Inc
Original Assignee
Motorola Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Motorola Inc filed Critical Motorola Inc
Publication of JP2006048058A publication Critical patent/JP2006048058A/ja
Application granted granted Critical
Publication of JP4468264B2 publication Critical patent/JP4468264B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/005Language recognition
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/02Feature extraction for speech recognition; Selection of recognition unit
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/08Speech classification or search
    • G10L15/10Speech classification or search using distance or distortion measures between unknown speech and reference templates
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/08Speech classification or search
    • G10L15/14Speech classification or search using statistical models, e.g. Hidden Markov Models [HMMs]
    • G10L15/142Hidden Markov Models [HMMs]
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/08Speech classification or search
    • G10L2015/081Search algorithms, e.g. Baum-Welch or Viterbi

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Computational Linguistics (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Human Computer Interaction (AREA)
  • Acoustics & Sound (AREA)
  • Multimedia (AREA)
  • Probability & Statistics with Applications (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Machine Translation (AREA)

Abstract

【課題】言語モード間の手動切り替えを必要とせずに多言語による名称の音声認識方法を提供する。
【解決手段】多言語による名称の音声認識のための方法とシステム100は、混合文字/音変換器105において複数の言語特定文字/音変換器を使用する。一実施態様による方法は、文字からなる複数の名称を表すテキストを電子装置に記憶させるステップを含んでいる。次いで、前記名称のそれぞれに対する少なくとも一つの言語を特定し、各名称を順序だった一連の発音ユニットに変換し、この発音ユニットを公開語彙辞書110に記憶させる。次に、発話された言葉を前記電子装置に関連付けられたマイクロフォン120で受信し、この言葉を特徴抽出器125において特徴ベクトルに変換する。次いで、この特徴ベクトルを、ASR(自動音声認識)エンジン130において、少なくとも一つの名称の順序だった一連の発音ユニットと照合する。
【選択図】図1

Description

本発明は一般に音声認識プロセスに関する。本発明は特にパーソナル電子装置を使用した多言語による名称の音声認識に有用であるが、必ずしもそれに限定されるものではない。
移動電話、携帯情報端末(PDA)、および小型無線呼出し装置などのパーソナル電子装置は、工業化された世界の至る所で普及してきた。何百万人というユーザーが現在、電子情報への素早く簡単なアクセスと通信のためにそのような装置に頼っている。それらの装置の軽量・小型化は一般に、それらを例えばポケットや財布に入れて簡単に持ち運べるようにすることによって、その便利さを増している。しかしながら、それらの装置の小型化の不都合な点は、キーパッドおよびボタンなどの装置上の触覚インターフェースがしばしば極めて小さく扱い難いことである。
そこで、音声認識は多くのパーソナル電子装置にとって貴重な機能である。例えば、音声認識機能によって、車のドライバは、道路から目を離すことなくパーソナル電子装置に簡単な命令を出すことができる。また、音声による命令は、簡単に、しかも、小さなキーパッド上で指示を入力するのに必要な時間よりもしばしば速く実行することができるため、音声認識は、例えばPDA内のアドレス帳エントリにアクセスする際の利便性を向上することができる。
従って、音声認識システムは、コンピュータプログラムを実行し、データベースにアクセスするための好評な手段である。しかしながら、パーソナル電子装置の小型化は、組み込まれる音声認識システムの性能を制限することもある。効果的な音声認識はしばしば、比較的大きなデータベースとかなりの処理速度を必要とするが、小型電子装置のメモリ容量と処理能力は一般に制限がある。これらの制限を克服するために、パーソナル電子装置の音声認識システムは普通、限定された特定の状況だけのためにカスタマイズされる。例えば、そのようなシステムはしばしば、以下に更に詳細に説明するように、話者に依存しており、特定の話者のみの音声パターンを解釈するようになっている。また、そのようなシステムはしばしば、言語に依存しており、限定された語彙だけのために設計される。これらの設計上の妥協により、システムは、特定目的のためには、パーソナル電子装置の限定されたリソースを用いて、かなり良好に機能することができる。
音声認識システムは一般に、入力言葉をデータベースに記憶されている音響モデルと照合することによって機能する。一致した音響モデルをその後、辞書データベース内のエントリと照合し、単語および文の認識を完了する。音響モデルはしばしば、隠れマルコフモデル(Hidden Markov Models: HMM)からなっている。HMMは、平均ベクトルと分散ベクトルを含む統計記述であり、単語と音素などの音声ユニットを記述する。次いで、HMMパターン照合を使って、音声認識データベース内の音響モデルが発話により入力された言葉と一致するかどうかを判定する。HMMは一般に、ガウス混合と呼ばれるいくつかの複合ガウス確立分布関数(PDF)からなる確立関数に基づいている。音声パターン照合はそれ故、ガウス混合と入力音声言葉を照合するプロセスである。従って、HMMパターン照合音響モデルの利用可能な高度化は、性能とメモリおよび処理リソースとの間の必要な妥協を行うときに、音声認識システムの設計者が考えなければならない重要な変動要因である。
音声認識システムにおける他の妥協は、多数のユーザーの音声を認識するためのシステ
ムの能力に関係している。従って、音声認識システムは更に、話者に依存しないシステムか話者に依存するシステムのいずれかとして分類される。話者に依存しないシステムは、任意の言語のどの話者の音声をも認識するように設計されているが、話者に依存するシステムはただ一人の話者の音声を認識するように教育される。話者に依存しないシステムは普通、複数のトレーニング話者から得られたHMMを含む音響データベースを含んでいる。トレーニング話者の音声から得られるHMMは、より大きな話者グループに見られる音声パターンを代表することが意図されるガウス混合パラメータである。そのようなシステムは一般に、話者に依存するシステムよりも正確ではない。これは、いろいろな音声属性に対応するために音声モデルにおいて妥協しなければならないためと、話者に依存しないシステムが、そのシステムを使用するどの特定の話者の特有の音声属性にも適合しないためである。
話者に依存するシステムは、個々の話者の特定の音声パターンを認識するように調整される。通常、話者は、トレーニングルーチンの間、話者に依存するシステムの中にいろいろな音声パターンを含むスクリプトを読み込む。次いで、トレーニング音声がそのスクリプトに合わせられ、そのため、システムを話者の特有の音声属性に調整することができ、従って、システムは、音声認識の間、話者の音声をより正確に認識するようになる。しかしながら、話者に依存するシステムはしばしば、多くの人々が音声認識システムを使用する必要がある状況においては望ましくない。例えば、移動電話に組み込まれた音声認識システムによってユーザーは、命令を話し、その命令が電話によって認識されることによって、装置を動作させることができる。しかしながら、移動電話の主ユーザーは、多くの友人、同僚、または家族も電話の音声認識機能を使用できることを望むことがある。電話のそのような第2ユーザーはほんの短期間だけ音声認識機能を必要とするかも知れないため、第2ユーザーは、音声認識機能を使う前に、まず自分の音声を電話に認識させる必要があることは不便である。
最後に、音声認識音響モデルは通常、単一言語専用に設計されている。従って、多言語音声を認識できる音声認識システムは、多数の音響モデルを必要とし、このこともシステムのメモリ要求と高度化を増大させる。
最近、二言語による音声認識装置がパーソナル電子装置用に開発されている。従って、例えば、移動電話のバイリンガルユーザーは、英語と標準中国語といった二言語のうちのいずれかを使って、電話に記憶されたアドレス帳から名称を呼び出すことができる。これらの装置に使用される別々の言語に特定的な音響モデルおよび語彙データベースのために、ユーザーは一般に、音声認識機能を使う前に、まず電話の言語モードを一つの特定の言語に切り換えなければならない。しかしながら、特定の言語を予め選択しなければならないのは、例えば、アドレス帳が、多様に混在した二言語の名称または他の連絡情報を含む場合に不便である。また、特定の言語を予め選択しなければならないために、システムは、音声認識を用いて、多言語が混在した2つの部分からなる名称、例えば、名が英語で姓が標準中国語の名称を特定することができない。
従って、言語モード間の手動切り換えを必要とせずに多言語の名称を認識することができ、パーソナル電子装置の制限されたリソースを効果的に使用する、話者に依存していない音声認識のための改善された方法とシステムに対する必要性が存在する。
そこで、本発明は、一態様によれば、改善された多言語の名称の音声認識方法であって、文字からなる複数の名称を表すテキストを電子装置に記憶させるステップと、前記名称
のそれぞれに対して少なくとも一つの言語を特定するステップと、複数の、言語に特定的な文字/音変換器(以下「言語特定文字/音変換器」とする)を用いて、各名称を順序だった一連の発音ユニットに変換するステップと、前記電子装置に関連付けられたマイクロフォンで発話された言葉を受信するステップと、前記言葉を特徴ベクトルに変換するステップと、前記特徴ベクトルを少なくとも一つの名称の前記順序だった一連の発音ユニットと照合するステップとを備えた方法である。
前記多言語は標準中国語を含み、前記名称のそれぞれに対して少なくとも一つの言語を特定するステップは、前記名称が中国語アルファベットの文字から構成されているかローマ字アルファベットの文字から構成されているかを判定するステップと、ローマ字アルファベットの名称が中国語ぴん音であるかを判定するステップからなることが好ましい。
前記多言語は西洋言語と中国語で構成されることが好ましい。
前記複数の言語特定文字/音変換器は、中国語文字/音変換器と西洋言語文字/音変換器で構成されることが好ましい。
前記中国語文字/音変換器は前後関係に依存しており、前記西洋言語文字/音変換器は前後関係に依存していないことが好ましい。
前記特徴ベクトルを少なくとも一つの名称の順序だった一連の発音ユニットと照合するステップは、自動音声認識エンジンにおいて前記特徴ベクトルと前記順序だった一連の発音ユニットとガウス混合パラメータとを比較することによって前記特徴ベクトルをデコードするステップからなることが好ましい。
前記自動音声認識エンジンはビーム検索ビタービ(Viterbi )アルゴリズムを使用することが好ましい。
前記名称は前記電子装置に記憶されている連絡リストの構成要素からなっていることが好ましい。
別の態様によれば、本発明は、多言語による名称の音声認識方法であって、電子装置に関連付けられたマイクロフォンで発話された言葉を受信するステップと、前記言葉を特徴ベクトルに変換するステップと、前記特徴ベクトルを、少なくとも一つの名称であって文字の表現として前記電子装置に記憶されている名称の順序だった一連の発音ユニットと照合するステップを備える。前記名称の少なくとも一つの言語は前記文字から特定されており、前記名称は次いで、複数の言語特定文字/音変換器を用いて前記順序だった一連の発音ユニットに変換されている。
更に別の態様によれば、本発明は、多言語による名称の音声認識のためのシステムであって、マイクロプロセッサと、前記マイクロプロセッサに動作可能に接続された少なくとも一つのメモリと、前記マイクロプロセッサに動作可能に接続されたマイクロフォンを備える。前記マイクロプロセッサは、前記メモリに記憶されているコードを実行して、発話された言葉を前記マイクロフォンで受信し、前記言葉を特徴ベクトルに変換し、前記特徴ベクトルを、少なくとも一つの名称であって文字の表現として前記メモリに記憶されている名称の順序だった一連の発音ユニットと照合するように動作する。前記名称の少なくとも一つの言語は前記文字から特定されており、前記名称は次いで、前記マイクロプロセッサに動作可能に接続された複数の言語特定文字/音変換器を用いて前記順序だった一連の発音ユニットに変換されている。
前記名称は前記システムに記憶されている連絡リストの構成要素からなっていることが好ましい。
前記システムは移動電話か携帯情報端末のいずれかに動作可能に接続されることが好ま
しい。
特許請求の範囲を含む本仕様書においては、用語「備えた」、「含む」、「からなる」、または同様な用語は、非排他的包含を意味するものであるため、多くの要素からなる方法または装置は、それらの要素だけを含むものではなく、記載されていない他の要素を容易に含むことができる。
本発明を容易に理解し、実施するために、好ましい実施態様について添付図面を参照して説明する。添付図面において同一参照番号は同一要素を示す。
図1は、本発明の一実施態様による、多言語による名称の音声認識のためのシステム100の機能的構成要素を示す概略図である。このシステム100は以下のように動作する。文字/音変換器105は、名称のテキストを順序だった一連の発音ユニットに変換する。この名称は、通常、移動電話や携帯情報端末(PDA)などのパーソナル電子装置上に、個々の文字の表記として記憶されている多くの名称の一つである。例えば、これらの名称は電子装置のアドレス帳または連絡リストの一部として記憶されていてもよい。文字/音変換器105は最初に、システム100に入力された名称に対し、少なくとも一つの言語を特定する。次いで、この名称を、公開語彙辞書110に記憶される順序だった一連の発音ユニットに変換する。システム100はまた、混合言語隠れマルコフモデル(HMM)セット115を含んでいる。HMMセット115は、少なくとも二つの言語の選択音声パターンを表すガウス混合パラメータを含んでいる。
複数の名称とそれに関連する順序だった一連の発音ユニットが公開語彙辞書110に入力された後、システム100は、それらの名称のいずれかがマイクロフォン120などの入力部に発話されると、その名称の発話された表現を認識することができる。マイクロフォン120は、音声作動装置(VAD)に動作可能に接続することができる。次に、特徴抽出器125が、この技術で良く知られた従来の音声認識技術に従って、発話された名称の特徴ベクトルを抽出する。特徴ベクトルは次いで、特徴ベクトルとガウス混合パラメータを比較する自動音声認識(ASR)エンジン130によってデコードされる。ASRエンジン130は更に、動的文法ネットワーク135によって支援される。このネットワーク135は、公開語彙辞書110で構築され、音声認識プロセスの間、発音モデルの検索を誘導する。最後に、公開語彙辞書からの一致名称がシステム100から出力される。次いで、この一致した名称を電子装置が使用して、例えば連絡リストから個人の電話番号または他の連絡情報を検索することができる。
したがって、本発明は多言語が混在した単語や名称の音声認識が必要な用途おいて有用である。例えば、中国においては、話者に依存しない中国語(例えば、標準中国語または広東語)および英語のASR可能な携帯電話が現れている。しかしながら、これらの先行技術システムは一般に、一時に単一言語モデルでのみ動作することができる。例えば、ユーザーが、英語名称を用いてアドレス帳内の情報を検索するためにASR機能を使おうとすると、ユーザーはまず、ASR機能を英語に設定しなければならない。次いで、同じユーザーが、標準中国語名称を用いてアドレス帳内の情報を検索しようとすると、そのユーザーは、標準中国語名称を検索可能となる前に、まずASR機能を標準中国語に設定しなければならない。しかしながら、中国における多くの移動電話ユーザーは、電話アドレス帳に、名称の第1部分が英語で、名称の第2部分が標準中国語であるバイリンガルの二つの部分からなる名称を有していることが見受けられる。従って、先行技術のASRシステムはそのようなバイリンガルの二部名称の発話された表現を自動的に認識することができない。一方、本発明は、そのようなバイリンガルの二部名称を認識することができ、ユーザーが手動でASRを一方の言語から他方の言語に切り換える必要がない。
図2は、二つの異なる言語のいろいろな名称と、それに関する順序だった一連の発音ユニットからなる発音とを示す表である。例えば、第1の名称、すなわち、
Figure 2006048058
は標準中国語(漢字)のみからなりであり、その後に、個々の中国語音素205を含む順序だった一連の発音ユニットで構成されたその発音が続いている。次の名称「John Stone」は英語のみからなり、その後に、個々の英語音素210を含むその発音が続いている。第3の名称、すなわち、
Figure 2006048058
は、標準中国語(漢字)の性、すなわち、
Figure 2006048058
と英語の名「Jacky 」とを含んでいるのでバイリンガルの二部名称である。それにもかかわらず、本発明の方法とシステムは、英語音素210と中国語音素205の双方を含むその名称の発音をも定義することができる。ユーザーが手動で言語を切り換える必要なく、バイリンガルの二部名称のそのような発音構文解析を可能にする本発明の特徴を以下に説明する。
図3は、図1において導入された混合文字/音変換器105の働きと構成要素を示す概略図である。一例として、図3に示す混合文字/音変換器105は、英語または標準中国語のいずれかで表記された文字を変換するように動作する。まず、混合文字/音変換器105は、装置に記憶されている表記された名称の少なくとも一部を定義するために使用されるアルファベットを識別するアルファベット識別器305を含んでいる。名称の記憶部分が漢字310で構成されている場合には、その漢字310は、言語限定標準中国語文字/音変換器315に直接入力される。しかしながら、名称の記憶部分が英文字320で構成されている場合には、その名称は中国語ぴん音か英語のいずれかで表記されている可能性がある。従って名称のその部分はぴん音識別器325によって更に分類される。ぴん音識別器325は、(声調を除く)ぴん音で表されたすべての中国語の名称を基本的に識別する408音節のぴん音辞書を使用している。英文字320が中国語ぴん音である場合、英文字320は標準中国語文字/音変換器315に入力される。しかしながら、英文字320が英単語である場合には、英文字320は言語限定英語文字/音変換器330に入力される。標準中国語文字/音変換器315と英語文字/音変換器330は共に、名称を固有の順序だった一連の言語限定発音ユニットに変換するように動作可能である。種々の他の言語の文字を変換する他の文字/音変換器105も本開示によって可能であることは当業者にとって明らかである。従って、本発明の文字/音変換器105は、バイリンガルの二部名称を単一の順序だった一連の発音ユニットに構文解析することができる。
ユーザーが手動でシステム100の言語モデルを切り換える必要なしに本発明が機能するようにするために、混合言語HMMセット115は、二つの言語のそれぞれに対して一つの、少なくとも二つの音響モデルセットを含んでいる。例えば、英語と標準中国語の双
方を認識する本発明の上記実施態様によれば、HMMセット115は、二つの単一言語音響モデルセット、即ち、前後関係に依存する標準中国語モデルと、前後関係に依存しない英語モデルとを組み合わせている。ここで、前後関係とは、任意の発音ユニットのすぐ右と左またはそのいずれかに隣接する発音ユニットを指す。中国語においては、これらのユニットは、以下により詳しく説明するように、「声母(initial) 」と「韻母(final) 」と呼ばれる。三音モデルは、左隣接発音ユニットと右隣接発音ユニットの双方を考慮した発音モデルである。二つの発音ユニットが、同じアイデンティティを有するが異なる左または右の前後関係を有する場合には、それらは異なる三音と考えられる。
中国語を英語などの西洋語と区別する一つの特徴は、漢字がすべて、子音/母音(C/V)構造プラス声調を有する単一音節であるということである。従って、音節認識はたいていの中国語音声認識システムの構成の基本である。中国語には全部で1254音節(408無調音節)があり、それらは22個の「声母」(即ち、音節における母音の前の子音)と38個の「韻母」(即ち、音節における母音の後の子音)のさまざまな組み合わせから得られる。声母の中には21個の真声母と一つのいわゆる「ゼロ声母」がある。本発明の好ましい実施態様によれば、ゼロ声母は真声母として扱われる。限定されたトレーニングデータのみが入手可能であるという状況を考慮すれば、中国語音声に関して、音節内の同時調音効果は音節間の同時調音効果よりも著しく大きいということが一般に見られる。このことは中国語の単音節構造が原因である。また、音節内では、声母の音響特性は韻母に高度に依存しているが、韻母の特性は声母にほとんど依存しない。例えば、音節「ta」内の声母「t 」は、別の音節「tu」内の同じ声母とは非常に異なって発音されるが、音節「ta」内の韻母「a 」は、「cha 」内の「a 」とほとんど同様に発音される。それ故、中国語音声認識における合理的なアプローチは、音節間の同時調音効果と音節内の先行声母に対する韻母の依存性の双方は無視できると仮定して、声母をそれに続く韻母の開始音素と右前後関係依存性があるものとし、韻母を前後関係依存性がないものとすることである。従って、本発明の好ましい実施態様は、117個の声母と38個の韻母を含む155個の副音節を使用する。各音節はその場合一対の副音節に分解される。本発明の好ましい実施態様の中国語音響モデルにおいて使用されるそのような音節分解の例を表1に示す。
Figure 2006048058
HMMセット115における英語音響モデルのサイズを縮小し、従って、システム100全体の複雑さと計算上の要求を減らすために、本発明の好ましい中国語/英語の実施態様は前後関係に依存しない英語音響モデルを使用する。また、40個の単音を基本英語モデル化ユニットとして使用する。そのような単音の一つの資料はカーネギーメロン大学(Carnegie Mellon University(CMU ))発音辞書である。CMU発音辞書は、約127,000の英単語をそれに対応する発音と共に含んでいる。CMU発音辞書はまた、英語の39個の個別音素を定義している。上記辞書の代わりに、他の辞書を使用してもよい。
順序だった一連の発音ユニットと特徴ベクトルを照合するASRエンジン130の動作
方法をより詳しく説明する。エンジン130は、ビタービ(Viterbi )型ビーム検索アルゴリズムを使って、システム100によって受け取られた発話された言葉の一連の特徴ベクトルを解析する。エンジン130の目的は、文法ネットワーク35によって導かれて、状態シーケンスの対応ガウスパラメータ(ガウス混合)が入力発話された言葉と最も良く一致する順序だった一連の発音ユニットを見つけることである。ビタービ(Viterbi )検索は、時刻tを時刻t+1に進む前に完全に処理する時刻同期検索アルゴリズムである。時刻tに対して、各状態は時刻t−1におけるすべての状態から(すべての入力パスの合計を使ってというよりも)ベストスコアによって更新される。検索の最後に、最も可能性の高い状態シーケンスを、これらのバックトラッキングポインタをたどることよって、回復することができる。効果的な効率化技術のおかげで、検索空間全体または格子全体を探索する必要はない。代わりに、最も有望な検索状態空間だけを探索する必要がある。次いで、総合HMMセットがシステム100のために作られる。このセットは、公開語彙辞書が更新される各時点の後にオンラインで生成される動的文法の最終要素の音響モデルに関連している。上記アルゴリズムに関する更なる詳細は、Jelinek, Frederickによる「音声認識のための統計的方法(Statistical Methods for Speech Recognition)」(MTT Press 1999 ISBN 0-262-10066-5 )において見ることができる。
本発明の更なる説明のために、図4は、標準中国語/英語公開語彙辞書110を含む本発明の一実施態様による、記憶したテキストを発音ユニットに変換するための典型的な方法400を要約した一般化フローチャートである。この方法400はまずステップ400で、文字からなる複数の名称を表すテキストを電子装置に記憶させる。ステップ410において、個々の名称が中国語アルファベットの文字からなるのかローマ字アルファベットの文字からなるのかを判定する。その名称を構成する文字が漢字である場合には、ステップ415において、その名称の言語は標準中国語であると特定する。しかしながら、その文字がローマ字アルファベットである場合には、その名称の言語は、その文字が中国語ぴん音である可能性があるので、まだ判定されない。よって、ステップ420において、ぴん音(声調を除く)で表されたすべての中国語名称を基本的に特定する408音節のぴん音辞書を用いて、その文字が中国語ぴん音であるかどうかを判定する。その文字がぴん音であると判定された場合には、方法400は再びステップ415に進んで、その名称の言語が標準中国語であると特定する。そうでない場合には、ステップ425において、その名称の言語は英語であると特定する。
その言語が標準中国語であるとステップ415において特定された場合には、方法400は引き続きステップ430において、標準中国語文字/音変換器315を用いて、その名称を順序だった一連の発音ユニットに変換する。しかしながら、ステップ425において言語が英語であると特定された場合には、方法400は続いてステップ435において、英語文字/音変換器330を用いて、その名称を順序だった一連の発音ユニットに変換する。次いで、順序だった一連の発音ユニットを公開語彙辞書110に記憶させる。
いま、図5は、本発明の好ましい実施態様による、発話された言葉を公開語彙辞書110に記憶された名称と照合する方法500を示す一般化フローチャートである。方法500はまずステップ505において、発話された言葉を電子装置のマイクロフォン120で受信する。この装置は多言語による名称の音声認識のためのシステム100を含んでいる。ステップ510において、その言葉を特徴ベクトルに変換する。次いで、ステップ515において、上記方法に従って、その言葉の特徴ベクトルを、公開語彙辞書110に記憶されている少なくとも一つの名称の順序だった一連の発音ユニットと照合する。
図6は、本発明の音声認識システム100を実行することができるパーソナル電子装置の一例を示す概略図である。この例は、本発明の一実施態様による多言語による名称の音声認識のためのシステム100を含む無線電話600の形態の無線通信装置を含んでいる
。電話600は、プロセッサ603と通信するように接続された無線周波数通信ユニット602を備えている。無線電話600はまた、プロセッサ603と通信するように接続されたキーパッド606と表示スクリーン605を備えている。当業者にとって明らかなように、スクリーン605はタッチスクリーンとすることができるので、キーパッド606はオプションとすることができる。
プロセッサ603は、無線電話600によって送信または受信することができる音声または他の信号をエンコードおよびデコードするためのエンコーダ/デコーダ611とそれに関するデータ記憶用コード読み取り専用メモリ(ROM)612を含んでいる。プロセッサ603はまた、共通データアドレスバス617によってエンコーダ/デコーダ611に接続されたマイクロプロセッサ613と、文字読み取り専用メモリ(ROM)614と、ランダムアクセスメモリ(RAM)604と、プログラム可能スタティックメモリ616と、SIMインターフェース618を含んでいる。プログラム可能スタティックメモリ616と、SIMインターフェース618に動作可能に接続されたSIM(しばしばSIMカードと呼ばれる)とはそれぞれ、とりわけ、選択された入力テキストメッセージと、電話番号用番号フィールドおよび名称フィールド内の番号の一つと関連付けられた識別子のための名称フィールドからなる電話番号データベースTND(またはアドレス/電話帳)とを記憶することができる。例えば、電話番号データベースTND内の一つのエントリは、(番号フィールド内に入力された)91999111111 と、名称フィールド内のそれに関連する識別子「Steven C! at work 」とすることができる。SIMカードとスタティックメモリ616は、無線電話600のパスワード保護機能へのアクセスを可能にするためのパスワードを記憶することもできる。本発明の構成要素、例えば、文字/音変換器105、公開語彙辞書110、混合言語HMMセット115、特徴抽出器125、ASRエンジン130、動的文法ネットワーク135などはすべて、コード読み取り専用メモリ(ROM)612、文字読み取り専用メモリ(ROM)614、ランダムアクセスメモリ(RAM)604、スタティックメモリ616、およびSIMカードの一つまたはそれ以上に、部分的または全体的に格納することができる。マイクロプロセッサ613は、キーパッド606と、スクリーン605と、警報スピーカ、バイブレータモータ、および関連ドライバを一般的に含む警報機615への接続のためのポートを有している。また、マイクロプロセッサ613は、マイクロフォン120と通信スピーカ640への接続のためのポートを有している。文字読み取り専用メモリ614は、通信ユニット602によって受信されるテキストメッセージをデコードまたはエンコードするためのコードを記憶している。この実施態様においては、文字読み取り専用メモリ614はまた、マイクロプロセッサ613のためのオペレーティングコード(OC)と無線電話600に関する機能を実行するためのコードを記憶している。
無線周波数通信ユニット602は、共通アンテナ607を有する組み合わせ送受信機である。通信ユニット602は、無線周波数増幅器609を介してアンテナ607に接続されたトランシーバ608を有している。トランシーバ608はまた、通信ユニット602をプロセッサ603に接続する組み合わせ変調器/復調器610に接続されている。
英語と標準中国語のための本発明の一実施態様の性能例を以下に示す。テストデータベースは、「cancel」と「castle」などのまぎらわしい似通った発音の単語を含み、50個の語彙からなる発話された言葉の特徴ベクトルで構成されている。データベースは、約200人の話者からの9494個の標準中国語の言葉と、25人の話者からの6827個の英語の言葉を含んでいる。これらの言葉は、実世界環境を確立しようとして、オフィス、車、ショッピングモール、街路などの6つの異なる移動環境において録音された。テストの結果は表2に要約されている。単一言語結果は、単一言語音声認識専用システムを用いた認識精度を示している。混合言語結果は、本発明の混合言語音声認識システム100を用いた認識精度を含んでいる。
Figure 2006048058
従って、本発明は、ユーザーがシステム100の言語モードを手動で切り換える必要のない、多言語の発話された名称を認識することができる改善された音声認識システム100である。従って、それは、例えば、ユーザーが多言語による名称を含む電子アドレス帳を持つことができる多言語環境において有用である。ユーザーが言語モードを切り換える必要がないので、システム100は第1言語のファーストネームと第2言語のセカンドネームとで構成された複合名称さえも認識することができる。また、システム100のメモリと処理要求は、前後関係に依存する構成要素と前後関係に依存しない構成要素を含む組み合わせ音響モデルの使用によって節約することができる。従って、システム100を、制限されたメモリと処理リソースを有する移動電話やPDAなどのパーソナル電子装置上で動作させることができる。
上記詳細な説明は、好ましい典型的な実施態様だけを提供するものであって、本発明の範囲、適用可能性、または構成を制限するものではない。むしろ、この好ましい実施態様の詳細な説明は、当業者に、本発明の好ましい典型的な実施態様を実施するのを可能にする説明を提供する。特許請求の範囲に述べられたような本発明の精神と範囲から逸脱することなしに、要素とステップの機能と配置において種々の変更を行うことができることは明らかである。
本発明の一実施態様による、多言語による名称の音声認識のためのシステムの機能的構成要素を示す概略図。 本発明の実施態様による、二つの異なる言語のいろいろな名称と、それに関する順序だった一連の発音ユニットからなる発音とを示す表。 本発明の実施態様による文字/音変換器の働きと構成要素を示す概略図。 標準中国語/英語公開語彙辞書を含む本発明の実施態様による、記憶テキストを発音ユニットに変換するための方法を要約した一般化フローチャート。 本発明の実施態様による、発話された言葉を公開語彙辞書に記憶された名称と照合する方法を示す一般化フローチャート。 本発明の実施態様による、音声認識システムを実行することができる無線電話の形態のパーソナル電子装置を示す概略図。

Claims (8)

  1. 多言語による名称の音声認識方法であって、
    文字からなる複数の名称を表すテキストを電子装置に記憶させるステップと、
    前記名称のそれぞれに対して少なくとも一つの言語を特定するステップと、
    各名称を、複数の言語特定文字/音変換器を用いて、順序だった一連の発音ユニットに変換するステップと、
    前記電子装置に関連付けられたマイクロフォンで、発話された言葉を受信するステップと、
    前記言葉を特徴ベクトルに変換するステップと、
    前記特徴ベクトルを少なくとも一つの名称の順序だった一連の発音ユニットと照合するステップとを備えることを特徴とする方法。
  2. 前記特徴ベクトルを少なくとも一つの名称の順序だった一連の発音ユニットと照合するステップは、自動音声認識エンジンにおいて、前記特徴ベクトルと前記順序だった一連の発音ユニットとガウス混合パラメータとを比較することによって、前記特徴ベクトルをデコードするステップからなることを特徴とする請求項1に記載の方法。
  3. 前記自動音声認識エンジンはビーム検索ビタービ(Viterbi )アルゴリズムを使用することを特徴とする請求項2に記載の方法。
  4. 前記名称は前記電子装置に記憶されている連絡リストの構成要素からなることを特徴とする請求項1に記載の方法。
  5. 多言語による名称の音声認識方法であって、
    電子装置に関連付けられたマイクロフォンで発話された言葉を受信するステップと、
    前記言葉を特徴ベクトルに変換するステップと、
    前記特徴ベクトルを、表現として前記電子装置に記憶されている少なくとも一つの名称の順序だった一連の発音ユニットと照合するステップを備え、
    前記名称の少なくとも一つの言語は前記文字から特定されており、その後、前記名称は複数の言語特定文字/音変換器を用いて前記順序だった一連の発音ユニットに変換されていることを特徴とする方法。
  6. 多言語による名称の音声認識のためのシステムであって、
    マイクロプロセッサと、
    前記マイクロプロセッサに動作可能に接続された少なくとも一つのメモリと、
    前記マイクロプロセッサに動作可能に接続されたマイクロフォンを備え、
    前記マイクロプロセッサは、前記メモリに記憶されているコードを実行して、発話された言葉を前記マイクロフォンで受信し、前記言葉を特徴ベクトルに変換し、前記特徴ベクトルを、少なくとも一つの名称であって文字の表現として前記メモリに記憶されている名称の順序だった一連の発音ユニットと照合するように動作し、前記名称の少なくとも一つの言語は前記文字から特定されており、前記名称は次いで、前記マイクロプロセッサに動作可能に接続された複数の言語特定文字/音変換器を用いて前記順序だった一連の発音ユニットに変換されていることを特徴とするシステム。
  7. 前記マイクロプロセッサに動作可能に接続された自動音声認識エンジンにおいて前記特徴ベクトルと前記順序だった一連の発音ユニットとガウス混合パラメータを比較することによって、前記特徴ベクトルを少なくとも一つの名称の順序だった一連の発音ユニットと照合することを特徴とする請求項6に記載のシステム。
  8. 前記名称は前記電子装置に記憶されている連絡リストの構成要素からなることを特徴とする請求項6に記載のシステム。
JP2005228583A 2004-08-06 2005-08-05 多言語による名称の音声認識のための方法とシステム Active JP4468264B2 (ja)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN200410056515A CN100592385C (zh) 2004-08-06 2004-08-06 用于对多语言的姓名进行语音识别的方法和系统

Publications (2)

Publication Number Publication Date
JP2006048058A true JP2006048058A (ja) 2006-02-16
JP4468264B2 JP4468264B2 (ja) 2010-05-26

Family

ID=35963852

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2005228583A Active JP4468264B2 (ja) 2004-08-06 2005-08-05 多言語による名称の音声認識のための方法とシステム

Country Status (4)

Country Link
JP (1) JP4468264B2 (ja)
KR (1) KR100769029B1 (ja)
CN (1) CN100592385C (ja)
SG (1) SG119358A1 (ja)

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101826325A (zh) * 2010-03-10 2010-09-08 华为终端有限公司 对中英文语音信号进行识别的方法和装置
JP2011027979A (ja) * 2009-07-24 2011-02-10 Fujitsu Ltd 音声翻訳装置及び音声翻訳方法
JP2011033874A (ja) * 2009-08-03 2011-02-17 Alpine Electronics Inc 多言語音声認識装置及び多言語音声認識辞書作成方法
JP2011039468A (ja) * 2009-08-14 2011-02-24 Korea Electronics Telecommun 電子辞書で音声認識を用いた単語探索装置及びその方法
CN102780653A (zh) * 2012-08-09 2012-11-14 上海量明科技发展有限公司 即时通信中快捷通信的方法、客户端及系统
CN104900235A (zh) * 2015-05-25 2015-09-09 重庆大学 基于基音周期混合特征参数的声纹识别方法
CN112669841A (zh) * 2020-12-18 2021-04-16 平安科技(深圳)有限公司 多语种语音的生成模型的训练方法、装置及计算机设备
CN113536776A (zh) * 2021-06-22 2021-10-22 深圳价值在线信息科技股份有限公司 混淆语句的生成方法、终端设备及计算机可读存储介质
JP2022020061A (ja) * 2020-12-01 2022-01-31 ベイジン バイドゥ ネットコム サイエンス テクノロジー カンパニー リミテッド 中国語と英語の混在音声の認識方法、装置、電子機器及び記憶媒体

Families Citing this family (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10134385B2 (en) 2012-03-02 2018-11-20 Apple Inc. Systems and methods for name pronunciation
CN103853779A (zh) * 2012-12-04 2014-06-11 联想(北京)有限公司 一种信息处理方法及电子设备
CN103928024B (zh) * 2013-01-14 2017-11-28 联想(北京)有限公司 一种语音查询方法及电子设备
KR101579533B1 (ko) 2014-10-16 2015-12-22 현대자동차주식회사 차량 및 그 제어 방법
KR101664080B1 (ko) * 2015-07-28 2016-10-10 현대자동차 주식회사 음성 다이얼링 시스템 및 방법
CN105095509B (zh) * 2015-09-06 2019-01-25 百度在线网络技术(北京)有限公司 语音搜索方法及装置
CN106935239A (zh) * 2015-12-29 2017-07-07 阿里巴巴集团控股有限公司 一种发音词典的构建方法及装置
CN106856091A (zh) * 2016-12-21 2017-06-16 北京智能管家科技有限公司 一种多语言文本的自动播报方法及系统
DE102017200976B4 (de) * 2017-01-23 2018-08-23 Audi Ag Verfahren zum Betreiben eines Kraftfahrzeugs mit einer Bedienvorrichtung
CN109192202B (zh) * 2018-09-21 2023-05-16 平安科技(深圳)有限公司 语音安全识别方法、装置、计算机设备及存储介质
CN112397051B (zh) * 2019-08-16 2024-02-02 武汉Tcl集团工业研究院有限公司 语音识别方法、装置及终端设备
CN110808034A (zh) * 2019-10-31 2020-02-18 北京大米科技有限公司 语音转换方法、装置、存储介质及电子设备
CN112153206B (zh) * 2020-09-23 2022-08-09 阿波罗智联(北京)科技有限公司 一种联系人匹配方法、装置、电子设备及存储介质

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH1165590A (ja) * 1997-08-25 1999-03-09 Nec Corp 音声認識ダイアル装置
JP2000032140A (ja) * 1998-04-30 2000-01-28 Matsushita Electric Ind Co Ltd 音声認識を用いたロボットホテル従業員
JP2000047684A (ja) * 1998-07-28 2000-02-18 Nec Corp 音声認識方法および音声サービス装置
JP2000352990A (ja) * 1999-06-14 2000-12-19 Nippon Telegr & Teleph Corp <Ntt> 外国語音声合成装置
EP1463031A1 (en) * 2003-03-24 2004-09-29 Microsoft Corporation Front-end architecture for a multi-lingual text-to-speech system

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR0136425B1 (ko) * 1995-01-26 1998-05-15 조백제 의존문법을 후향 언어모델로 사용하는 한국어 연속음성 인식장치 및 방법과 그를 이용한 자동통역시스템
MY119374A (en) * 1995-09-12 2005-05-31 Texas Instruments Inc Method and system for enrolling addresses in a speech recognition database
JP4053151B2 (ja) * 1998-09-01 2008-02-27 富士通株式会社 放流警報システム
US6502075B1 (en) * 1999-03-26 2002-12-31 Koninklijke Philips Electronics, N.V. Auto attendant having natural names database library
JP2001085233A (ja) * 1999-09-10 2001-03-30 Concorde Denshi Kogyo:Kk 半閉磁路インダクタおよびその製造法。
JP3539548B2 (ja) * 1999-09-20 2004-07-07 Jfeスチール株式会社 加工用高張力熱延鋼板の製造方法
KR100423460B1 (ko) * 2001-07-19 2004-03-18 한국전자통신연구원 주제어 인식이 가능한 음성인식시스템 및 방법
US7684988B2 (en) * 2004-10-15 2010-03-23 Microsoft Corporation Testing and tuning of automatic speech recognition systems using synthetic inputs generated from its acoustic models

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH1165590A (ja) * 1997-08-25 1999-03-09 Nec Corp 音声認識ダイアル装置
JP2000032140A (ja) * 1998-04-30 2000-01-28 Matsushita Electric Ind Co Ltd 音声認識を用いたロボットホテル従業員
JP2000047684A (ja) * 1998-07-28 2000-02-18 Nec Corp 音声認識方法および音声サービス装置
JP2000352990A (ja) * 1999-06-14 2000-12-19 Nippon Telegr & Teleph Corp <Ntt> 外国語音声合成装置
EP1463031A1 (en) * 2003-03-24 2004-09-29 Microsoft Corporation Front-end architecture for a multi-lingual text-to-speech system

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011027979A (ja) * 2009-07-24 2011-02-10 Fujitsu Ltd 音声翻訳装置及び音声翻訳方法
JP2011033874A (ja) * 2009-08-03 2011-02-17 Alpine Electronics Inc 多言語音声認識装置及び多言語音声認識辞書作成方法
JP2011039468A (ja) * 2009-08-14 2011-02-24 Korea Electronics Telecommun 電子辞書で音声認識を用いた単語探索装置及びその方法
CN101826325A (zh) * 2010-03-10 2010-09-08 华为终端有限公司 对中英文语音信号进行识别的方法和装置
CN102780653A (zh) * 2012-08-09 2012-11-14 上海量明科技发展有限公司 即时通信中快捷通信的方法、客户端及系统
CN104900235A (zh) * 2015-05-25 2015-09-09 重庆大学 基于基音周期混合特征参数的声纹识别方法
JP2022020061A (ja) * 2020-12-01 2022-01-31 ベイジン バイドゥ ネットコム サイエンス テクノロジー カンパニー リミテッド 中国語と英語の混在音声の認識方法、装置、電子機器及び記憶媒体
JP7204861B2 (ja) 2020-12-01 2023-01-16 ベイジン バイドゥ ネットコム サイエンス テクノロジー カンパニー リミテッド 中国語と英語の混在音声の認識方法、装置、電子機器及び記憶媒体
CN112669841A (zh) * 2020-12-18 2021-04-16 平安科技(深圳)有限公司 多语种语音的生成模型的训练方法、装置及计算机设备
CN113536776A (zh) * 2021-06-22 2021-10-22 深圳价值在线信息科技股份有限公司 混淆语句的生成方法、终端设备及计算机可读存储介质

Also Published As

Publication number Publication date
CN100592385C (zh) 2010-02-24
CN1731511A (zh) 2006-02-08
SG119358A1 (en) 2006-02-28
JP4468264B2 (ja) 2010-05-26
KR100769029B1 (ko) 2007-10-22
KR20060050277A (ko) 2006-05-19

Similar Documents

Publication Publication Date Title
JP4468264B2 (ja) 多言語による名称の音声認識のための方法とシステム
KR100679042B1 (ko) 음성인식 방법 및 장치, 이를 이용한 네비게이션 시스템
US20050049870A1 (en) Open vocabulary speech recognition
EP1291848A2 (en) Multilingual pronunciations for speech recognition
JP2007500367A (ja) 音声認識方法およびコミュニケーション機器
JP5703491B2 (ja) 言語モデル・音声認識辞書作成装置及びそれらにより作成された言語モデル・音声認識辞書を用いた情報処理装置
KR20050071334A (ko) 텍스트 입력 방법
WO2008067562A2 (en) Multimodal speech recognition system
CA2613154A1 (en) Dictionary lookup for mobile devices using spelling recognition
KR20210036169A (ko) 대화 시스템, 대화 처리 방법, 번역 장치 및 번역 방법
CN111916062B (zh) 语音识别方法、装置和系统
JP2002116793A (ja) データ入力システム及びその方法
JP2007538278A (ja) 音声認識システム
WO2007052884A1 (en) Text input system and method based on voice recognition
JP4230142B2 (ja) 悪環境下でのキーパッド/音声を用いたハイブリッドな東洋文字認識技術
KR101250897B1 (ko) 전자사전에서 음성인식을 이용한 단어 탐색 장치 및 그 방법
Mittal et al. Speaker-independent automatic speech recognition system for mobile phone applications in Punjabi
JP2004170466A (ja) 音声認識方法と電子装置
KR20030010979A (ko) 의미어단위 모델을 이용한 연속음성인식방법 및 장치
KR100777569B1 (ko) 멀티모달을 이용한 음성 인식 방법 및 그 장치
WO2014035437A1 (en) Using character describer to efficiently input ambiguous characters for smart chinese speech dictation correction
Sugamura et al. Speech processing technologies and telecommunications applications at NTT
JP2002073081A (ja) 音声認識方法と電子装置
Kitaoka et al. Multimodal interface for organization name input based on combination of isolated word recognition and continuous base-word recognition.
JP4445371B2 (ja) 認識語彙の登録装置と音声認識装置および方法

Legal Events

Date Code Title Description
A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20090127

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20090427

A602 Written permission of extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A602

Effective date: 20090501

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20090727

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20100202

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20100224

R150 Certificate of patent or registration of utility model

Ref document number: 4468264

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130305

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130305

Year of fee payment: 3

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313111

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130305

Year of fee payment: 3

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

S533 Written request for registration of change of name

Free format text: JAPANESE INTERMEDIATE CODE: R313533

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130305

Year of fee payment: 3

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130305

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140305

Year of fee payment: 4

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313113

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250