[go: up one dir, main page]

JP3990075B2 - 音声認識支援方法及び音声認識システム - Google Patents

音声認識支援方法及び音声認識システム Download PDF

Info

Publication number
JP3990075B2
JP3990075B2 JP18585999A JP18585999A JP3990075B2 JP 3990075 B2 JP3990075 B2 JP 3990075B2 JP 18585999 A JP18585999 A JP 18585999A JP 18585999 A JP18585999 A JP 18585999A JP 3990075 B2 JP3990075 B2 JP 3990075B2
Authority
JP
Japan
Prior art keywords
recognition
recognition result
point
distance
map
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP18585999A
Other languages
English (en)
Other versions
JP2001013991A (ja
Inventor
三慶 舘森
博史 金澤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Original Assignee
Toshiba Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp filed Critical Toshiba Corp
Priority to JP18585999A priority Critical patent/JP3990075B2/ja
Priority to US09/606,150 priority patent/US6718304B1/en
Publication of JP2001013991A publication Critical patent/JP2001013991A/ja
Priority to US10/687,707 priority patent/US6978237B2/en
Application granted granted Critical
Publication of JP3990075B2 publication Critical patent/JP3990075B2/ja
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/34Route searching; Route guidance
    • G01C21/36Input/output arrangements for on-board computers
    • G01C21/3605Destination input or retrieval
    • G01C21/3608Destination input or retrieval using speech input, e.g. using speech recognition
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/34Route searching; Route guidance
    • G01C21/36Input/output arrangements for on-board computers
    • G01C21/3667Display of a road map
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/26Speech to text systems
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • G10L2015/226Procedures used during a speech recognition process, e.g. man-machine dialogue using non-speech characteristics
    • G10L2015/228Procedures used during a speech recognition process, e.g. man-machine dialogue using non-speech characteristics of application context

Landscapes

  • Engineering & Computer Science (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Automation & Control Theory (AREA)
  • General Physics & Mathematics (AREA)
  • Health & Medical Sciences (AREA)
  • Acoustics & Sound (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Artificial Intelligence (AREA)
  • General Health & Medical Sciences (AREA)
  • Computational Linguistics (AREA)
  • Multimedia (AREA)
  • Navigation (AREA)
  • Traffic Control Systems (AREA)

Description

【0001】
【発明の属する技術分野】
本発明は、音声による地図検索が可能なシステムに好適な音声認識支援方法及び音声認識システムに関する。
【0002】
【従来の技術】
カーナビゲーションシステムに代表される、音声コマンドによる地図検索が可能なシステムでは、ユーザは検索対象地域内の場所または施設の名称(地名または施設名)を発声することが多い。したがって、認識結果の表す地点が検索対象地域から遠く離れた場所または施設の場合は誤認識である可能性が高い。そのため、このような認識結果に対してシステムが無条件に動作(例えば、認識結果の表す場所の付近の地図を拡大表示する動作)を行うと、結果的に誤動作となる場合が多い。
【0003】
そこで、現在のカーナビゲーションシステムでは、地図検索を音声コマンドで行う場合には、地域を階層化して音声入力できる地域を限定し、上位階層から下位階層へ降りるごとに検索対象地域(を指定する語彙)がより制限されるようになっている。しかし、音声入力できる地域を限定している状態で、限定範囲外の場所名を入力するには一旦限定を解除しなくてはならず、システムの使い勝手が悪くなる。
【0004】
【発明が解決しようとする課題】
このように、地図検索を音声コマンドで行うカーナビゲーションシステムに代表される従来のシステムでは、誤動作を避けるために、地域を階層化して、音声入力できる地域を限定すると、つまり音声入力できる場所(を表す語彙)を限定すると、限定範囲外の場所名を入力するには一旦限定を解除しなくてはならず、システムの使い勝手が悪くなるという問題があった。
【0005】
本発明は上記事情を考慮してなされたものでその目的は、音声で指定可能な地図上の場所等を表す語彙の範囲を限定することなく、誤認識による不要な誤動作を回避し、システムの使い勝手を向上することができる音声認識支援方法及び音声認識システムを提供することにある。
【0006】
【課題を解決するための手段】
本発明の音声認識支援方法は、ユーザからの入力音声に対する音声認識結果が地図上の地点を表す場合に、その認識結果の表す地点から地図検索の基準位置となる基準点までの距離を判定し、つまり認識結果の表す地点が基準点から遠いか或いは近いかの遠近を判定し、遠いと判定された場合、つまり認識結果の表す地点が基準点から離れた場所にある場合には、当該認識結果の正否の確認を促す確認応答(確認メッセージ)をユーザに提示して、ユーザの指示を仰ぐようにしたことを特徴とする。ここで、基準点には、システム(を搭載した物体、例えば車両、或いはシステムを携帯するユーザ)の現在位置或いは着目地点等を用いるとよい。この基準点は、ユーザからの要求に応じて、或いはシステムの自律的な動作により、変更設定可能とすることができる。
【0007】
このように本発明においては、音声認識結果で表される場所や施設が現在位置或いは着目地点といった基準点から離れた場所にあると判定された場合には、ユーザに認識結果の確認を促す確認応答を提示して、ユーザの指示を仰ぐようにしているため、音声で指定可能な地図上の場所等を表す語彙の範囲、つまり検索対象範囲を限定しなくても、誤認識による不要な誤動作を回避し、システムの使い勝手を向上することができる。
【0008】
ここで、音声認識結果として複数の認識候補が取得されるシステムでは、認識結果中の第1位候補が地図上の地点を表す場合に、当該認識結果中から地図上の地点を表す認識候補を抽出し、その抽出した認識候補の各々の入力音声との照合スコア(類似度或いは距離を表す評価値)を、当該認識結果の表す地点と基準点との距離を加味した新たなスコアに変換する再スコアリングを行って、その再スコアリング後の各認識候補の新たなスコアで決まる第1位候補の表す地点の距離判定を行い、その第1位候補の表す地点が遠いと判定された場合、再スコアリング後の所定数を上限とする上位候補について、その認識結果の正否の確認をユーザに対して促すための確認応答を生成してユーザに提示するとよい。この音声認識支援方法においても、語彙(検索対象範囲)を限定しなくても、誤認識による不要な誤動作を回避し、システムの使い勝手を向上することができる。
【0009】
また本発明は、上記距離判定のための基準を所定のパラメータに従って変更設定することをも特徴とする。この判定基準には、認識結果の表す地点の基準点からの遠近を両地点間の距離から判定する場合には、上記パラメータで決まる距離の閾値が用いられる。また、距離判定の基準として地図上の限定された範囲を表す基準範囲を用い、基準点を含む基準範囲を所定のパラメータに従って変更設定することにより、認識結果の表す地点の基準点からの遠近を、当該地点の基準範囲に対する位置関係から(例えば、当該地点が基準範囲に入っていないか或いは入っているかにより)判定するようにしてもよい。ここで、上記パラメータとして、画面表示される地図の拡大/縮小倍率Mを用いるとよく、Mが大きくなるほど上記判定基準(距離の閾値)を低くし(小さくし)、上記基準範囲を狭い地域に変更設定するとよい。
【0010】
このように、所定のパラメータに従って距離判定の基準を変更設定することにより、例えば指定された縮尺(拡大/縮小率)に応じて距離判定を行うことができる。
【0011】
また本発明は、距離判定の対象となる認識結果の信頼度を判定し、信頼できないと判定された場合のみ距離判定を行うことをも特徴とする。ここで、認識結果の信頼度を、当該認識結果の照合スコアを対応する入力音声の長さに基づいて正規化した値で判定するならば、高精度な判定が可能となる。
【0012】
このように、認識結果が十分信頼できると判定される場合には、基準点からの距離(遠近)に無関係に、確認応答の生成対象外とすることで、ユーザに不要な確認動作を強いるのを回避できる。
【0013】
また本発明は、地図上の地点を表す認識対象語彙を地図上の所定の区分に応じて階層化して管理し、上記認識結果が地図上の地点を表す場合には、その地点から距離判定の基準となる階層の区分を決定し、その区分自体、またはその区分と基準点が属す区分との関係(例えば、その区分に基準点が属すか否か)に応じて距離判定を行うことをも特徴とする。
このように階層単位で判定基準を切り替えることで、距離を計算することなく距離判定が可能となる。
【0014】
この他に、地図上の地点を表す認識語彙ごとに距離判定の基準を指定する属性を予め付与しておき、認識結果の表す地点の距離判定を、認識された語彙の属性で指定される判定基準に従って行うならば、語彙単位で判定基準を切り替え設定できる。この場合も、距離を計算することなく距離判定が可能となる。
【0015】
なお、方法に係る本発明は装置(音声認識システム)に係る発明としても成立する。
また、本発明は、コンピュータに当該発明に相当する手順を実行させるための(或いはコンピュータを当該発明に相当する手段として機能させるための、或いはコンピュータに当該発明に相当する機能を実現させるための)プログラムを記録したコンピュータ読み取り可能な記録媒体としても成立する。
【0016】
【発明の実施の形態】
以下、本発明の実施の形態につき図面を参照して説明する。
【0017】
[第1の実施形態]
図1は、本発明の第1の実施形態に係る音声認識システムを概略的に示すものである。
ここでは、カーナビゲーションシステムにおいて、音声入力(音声コマンド)によって地図検索を行う場合の音声認識に適用される音声認識システムを想定している。説明を簡単にするために、音声認識対象語彙が地名と施設名に限定されており、それぞれの語彙には、その地理的位置を表す座標(以下、単に位置座標と呼ぶ)が付与されているものとする。
【0018】
図1の音声認識システムは、全体制御部11、基準点設定部12、音声認識部13、及び応答生成部14を備えている。応答生成部14は、距離判定部140を有する。
【0019】
全体制御部11は、マイクロホン等の音声入力手段(図示せず)からの音声入力、表示画面の制御や種々のパラメータの設定・変更、更には必要な情報のデータベースの制御など、カーナビゲーションシステム全体の制御を行う。
【0020】
基準点設定部12は、地図検索の基準となる地点(基準点)の座標情報(位置座標)を設定・保持する。基準点の初期値には、カーナビゲーションシステムの現在位置、或いは予め設定されている所定の場所(着目地点)の位置座標が用いられる。この基準点の位置座標は、ユーザからの要求に応じて、或いはシステムの自律的な動作により、変更設定可能なようになっている。また、基準点の位置座標は、GPS(Global Positioning System)から得られる緯度及び経度、或いはデータベースに登録された位置座標、地図上の位置などから計算される。
【0021】
音声認識部13は、全体制御部11が制御する音声入力手段(ここではマイクロホンとA/D変換器により構成される音声入力手段)から入力音声を受け取って、その入力音声を音響分析してその特徴パターン系列を求め、当該特徴パターン系列と認識語彙の標準特徴パターン(標準モデル)との照合演算を行って、認識結果を出力する。ここで、音声の検出に失敗するなどの理由で認識結果が得られなかった場合には、音声認識部13は認識失敗を出力する。
【0022】
音声認識部13で適用可能な具体的な照合方法として既に数多くの方法が知られている。したがって、その中の1つを選択して使用すればよい。音声認識の具体例は、NTTアドバンステクノロジ株式会社の『音声認識の基礎(上)(下)』L.Rabiner,Biign−Hwang Juang共著、古井貞煕監訳、に詳しい。
本実施形態では、説明を簡単にするため、音声認識部13での認識結果が1個のみで、地図上の場所または施設を示す場合について述べる。
【0023】
応答生成部14は、音声認識部13から認識結果を(1個)受け取り、図2に示すフローチャートに従ってユーザへの応答を次のように生成する。
まず応答生成部14の距離判定部140は、基準点設定部12により設定・保持されている基準点の位置座標と認識結果とされた地名または施設名(語彙)の示す場所または施設(つまり、認識結果の示す地点)の位置座標とから、その2点間のユークリッド距離Dを算出する(ステップS11)。
【0024】
次に応答生成部14の距離判定部140は、算出した2点間の距離Dに基づいて、認識結果の示す地点から基準点までの距離の判定、つまり認識結果の示す地点の基準点に対する遠近判定を行うため、当該距離Dを予め定められた閾値Tと比較する(ステップS12)。
【0025】
もし、D<Tならば、距離判定部140は認識結果の示す地点が基準点から近いものと判定し、その判定結果を示す距離判定フラグDFを第1の状態に設定する。この場合、応答生成部14は、距離判定部140による遠近判定結果を表す距離判定フラグDFの第1の状態に従い、即ち認識結果の示す地点が基準点から近いとの遠近判定結果に従い、次に述べる応答出力は生成せずに全体制御部11に認識結果のみを出力する(ステップS13)。
【0026】
一方、D<Tでない場合、つまりD≧Tの場合には、距離判定部140は認識結果の示す地点が基準点から遠いものと判定し、距離判定フラグDFを第2の状態に設定する。この場合、応答生成部14は、距離判定フラグDFの第2の状態に従い、即ち認識結果の示す地点が基準点から遠いとの遠近判定結果に従い、認識結果をユーザに確認するためのメッセージ(確認応答)、例えば「○○ですか」(○○は認識結果)、を生成し、このメッセージ(確認メッセージ)と認識結果の対を全体制御部11に出力する(ステップS14)。
なお、認識結果が得られない認識失敗の場合には、その旨(認識失敗)が応答生成部14から全体制御部11に通知される。
【0027】
全体制御部11は、応答生成部14から(ステップS14により)確認メッセージと認識結果の対が通知された場合には、音声出力、或いは画面表示などにより、確認メッセージをユーザに提示し、ユーザの確認(判断)を待つ。ユーザはボタン操作などにより、認識結果の正否を入力する。
【0028】
ユーザの操作により、認識結果が「不正解」であることが入力された場合、全体制御部11は音声出力または画面表示により、ユーザに対して再度発声するように促す。また、「正解」であることが入力された場合には、全体制御部11は認識結果に対応した動作を行う。
【0029】
これに対し、応答生成部14からの応答出力に確認メッセージがない場合、即ち(ステップS13により)認識結果のみが通知された場合、或いは認識失敗が通知された場合には、全体制御部11はユーザの確認を待つことなく、通知内容に対応した動作を行う。
【0030】
以上に述べた実施形態では、説明の簡略化のために音声認識対象語彙が位置座標を持つ場合に限定した。しかし音声認識対象語彙には、システムの制御コマンド名などの位置座標を持たない語彙も含まれるのが一般的である。
【0031】
そこで図1の音声認識システムにおいて、音声認識部13での認識結果が位置座標を持たない語彙の場合にも対応可能なように、例えば認識対象となる全ての語彙に、その語彙の属性として、その語が位置座標を持つ語か否かを表す位置座標フラグPFを付与しておき、音声認識部13から応答生成部14には、その位置座標フラグPFが付された認識結果が渡される構成とするとよい。このような構成における応答生成部14の動作を以下に述べる。
【0032】
まず、応答生成部14の距離判定部140は、音声認識部13から渡された認識結果に付されている位置座標フラグPFを検査して、当該認識結果が位置情報を持つ語であるか否かを判定する。
【0033】
もし、位置情報を持たない語(認識結果)であるならば、距離判定部140は例えばD≧T(具体的にはD=T)とみなして距離判定フラグDFを第2の状態に設定する。この場合、応答生成部14から全体制御部11には、図2のフローチャートから明らかなように、確認メッセージと認識結果の対が出力されることになる。また、上記とは逆に、D<T(具体的にはD=0)とみなして距離判定フラグDFを第1の状態に設定してもよい。この場合、応答生成部14から全体制御部11には、図2のフローチャートから明らかなように、認識結果のみが出力されることになる。この他、D≧T(D=T)とみなすか、或いはD<T(D=0)とみなすかを、カーナビゲーションシステムの内部状態に応じて決定するようにしてもよい。
【0034】
[第2の実施形態]
次に、本発明の第2の実施形態に係る音声認識システムについて説明する。
この第2の実施形態に係る音声認識システムの特徴は、前記第1の実施形態では、音声認識部が1個の音声認識結果のみを出力することを前提としていたのに対し、音声認識部が複数の認識候補を音声認識結果として出力し得る点と、この音声認識部の複数認識候補出力機能に対応して応答生成部及び全体制御部に新たな機能を持たせている点にある。但し、便宜的に図1の構成を援用する。
【0035】
以下、第2の実施形態に係る音声認識システムの動作について、応答生成部14と全体制御部11での処理を中心に述べる。
まず、応答生成部14の処理について、図3のフローチャートを参照して説明する。
【0036】
今、音声認識部13から応答生成部14に複数の認識候補が認識結果として渡されたものとする。また、この認識候補には、入力音声(の特徴パターン系列)と当該候補(の標準特徴パターン)との類似度または距離を表す評価値(パターンマッチング結果)としての照合スコアSと、当該候補が位置情報を持つ語であるか否かを示す位置情報フラグPFが付されているものとする。
【0037】
応答生成部14の距離判定部140は、まず第1位の認識候補(1位候補)について、位置情報フラグPFから位置座標を持つ語であるか否かを判定する(ステップS21)。
もし、1位候補が位置座標を持たない語である場合、応答生成部14は1位候補のみを認識結果として全体制御部11に出力し(ステップS22)、前記第1の実施形態と同様に処理する。
【0038】
一方、1位候補が位置座標を持つ場合には、応答生成部14の距離判定部140は音声認識部13から渡された認識候補の中から位置座標を持つ候補のみを全て抽出する(ステップS23)。
【0039】
続いて距離判定部140は、抽出した候補のそれぞれについて、(基準点設定部12により設定・保持されている)基準点と当該候補となった地点との距離Dを求め、この距離Dと当該候補のスコアSとから、次式(1)
S′=αS+βG(D) …(1)
に従って新しいスコアS′を求め、そのスコアS′に基づいて、スコアの大きい順となるように候補順位の変更(候補の並べ替え)を行う(ステップS24)。なお、(1)式中のα、βは実験的に決定される係数、G(D)はDについての関数であり、単調減少関数、または単調非増加関数である。
【0040】
上記ステップS24の候補の並べ替えは、上記(1)式において、例えばα=0、β>0、G(D)がDの単調減少関数の場合は、候補のスコアSに無関係に、単純に基準点から近い順に並べ替えることと同義である。また、α>0、β=0の場合は再スコア計算を行わないことと同義である。なお、スコアS′を求めるのに必ずしも(1)式を用いる必要はなく、少なくとも距離DとスコアSとから算出されるものであればよい。
【0041】
距離判定部140は、上記したステップS24での再スコアリングによる候補順位の入れ替えを行うと、その入れ替えにより第1位となった候補の示す地点と基準点との距離Dを算出する(ステップS25)。そして距離判定部140は、算出した距離Dを閾値Tと比較することで、1位候補の示す地点の基準点からの遠近判定を行い、その判定結果に応じて距離判定フラグDFを第1の状態(D<Tの場合)、または第2の状態(D≧T)に設定する(ステップS26)。
【0042】
応答生成部14は、距離判定部140による遠近判定結果がD<Tの場合、1位候補の認識結果のみを全体制御部11に通知する(ステップS22)。これに対し、遠近判定結果がD≧Tの場合には、応答生成部14は上位N位(Nは予め定められた自然数)までのN個の候補(候補がN個ない場合は全候補)のそれぞれについて、第1の実施形態と同様の確認メッセージと対応する認識結果の対を全体制御部11に通知する(ステップS27)。なお、音声認識部13で認識結果が得られずに、音声認識部13から応答生成部14に認識失敗が通知された場合には、応答生成部14から全体制御部11にも認識失敗が通知される。
【0043】
全体制御部11は、応答生成部14からの通知内容に応じた処理を、図4のフローチャートに従って次のように実行する。
【0044】
まず全体制御部11は、応答生成部14からの通知内容に基づいて認識失敗か否かを判定する(ステップS31)。認識失敗であるならば、全体制御部11は認識失敗に対応した処理(ステップS32)を行う。なお、認識失敗の場合の処理自体は本発明に直接関係しないため説明を省略する。
【0045】
これに対し、認識失敗でないならば、全体制御部11は認識候補順位を表す順位番号nを初期値1に設定する(ステップS33)。この例のように、nの値が候補数を超えていない場合(ステップS35)、全体制御部11はn位候補に確認メッセージが付されているか否かを調べる(ステップS36)。もし、n位候補に確認メッセージがないならば、全体制御部11は認識失敗の場合と同様の処理を行う(ステップS32)。このような確認メッセージがない候補は、応答生成部14から(前記ステップS22で)1位候補の認識結果のみが通知された場合にだけ存在する。
【0046】
一方、n位候補に確認メッセージがあるならば、全体制御部11は当該確認メッセージを音声出力または画面表示によりユーザに提示し、ユーザの確認(判断)を待つ(ステップS37)。このような確認メッセージのある候補は、応答生成部14から(前記ステップS27で)上位N位までの候補がそれぞれ確認メッセージと対にして通知された場合にだけ存在する。
【0047】
さて、ユーザへの確認メッセージの提示に対して、ユーザの操作により、n位候補が「正解」であることが入力された場合、全体制御部11はn位候補(認識結果)に対応した動作を行う(ステップS38,S39)。
【0048】
これに対し、ユーザの操作により、n位候補が「不正解」であることが入力された場合、全体制御部11はnを1インクリメントして(ステップS38,S34)、そのインクリメント後のnの値が候補数を超えたか否かを調べる(ステップS35)。もし、インクリメント後のnの値が候補数を超えていないならば、全体制御部11は、そのnの値で示される(確認メッセージ付きの)n位候補についてステップS36以降の処理を行う。
【0049】
このように全体制御部11は、応答生成部14から上位N位までの候補(候補数がNに満たない場合には全候補)がそれぞれ確認メッセージと対にして通知された場合には、ユーザに対して上位候補から順に対応する確認メッセージを提示する動作を、ユーザが「正解」を入力するまで繰り返す。そしてユーザが正解を入力した場合は、その際のn位候補を認識結果として、その認識結果に対応した動作を行う。また、すべての候補についてユーザが承諾しなければ(ステップS35)、全体制御部11は認識失敗の場合と同様の処理を行う(ステップS32)。
【0050】
[第3の実施形態]
次に、本発明の第3の実施形態に係る音声認識システムについて説明する。
一般にカーナビゲーションシステムでは、画面表示する地図の縮尺が可変できるようになっている。この種のシステムでは、ユーザの指示やカーナビゲーションシステムによる制御によって、指定された地域を拡大、或いは縮小表示するように地図の縮尺が変更される。ユーザが音声入力を行う場合、殆どの場合、指定された範囲内にある場所(または施設)の名称(地名、施設名)を発声することが予想される。この場合、地図表示の縮尺が変更されたにも係わらず、基準点の座標を変更しないならば、正しい遠近判定が困難となる。
【0051】
第3の実施形態に係る音声認識システムの特徴は、地図表示の縮尺が変更された場合にも、正しい遠近判定を可能とする点にある。この場合、基準点設定部と応答生成部の機能は前記第1の実施形態に係る音声認識システムのそれとは一部異なるが、便宜的に図1の構成を援用する。
【0052】
以下、第3の実施形態に係る音声認識システムの動作について、縮尺が可変の地図表示が可能なカーナビゲーションシステムに適用される場合を例に、基準点設定部12での基準点設定と応答生成部14での遠近判定を中心に述べる。
まず、ユーザの指示やカーナビゲーションシステムによる制御によって、指定された地域を拡大、或いは縮小表示するように地図の縮尺が変更されたものとする。この場合、基準点設定部12は、拡大、或いは縮小表示された地図の中心点を基準点に設定する。
【0053】
すると応答生成部14の距離判定部140は、地図の拡大/縮小率M(Mが大きいほど狭い地域に限定される)を全体制御部11から取得し、そのMの値に基づいて、閾値Tを
T=F(M) …(2)
のように設定する。ここで、F(M)はMについての単調非増加関数である。
【0054】
さて、このような状態で、ユーザが地図上の所望の場所(または施設)の名称を発声し、その発声内容に対する音声認識部13での認識結果が応答生成部14に渡されたものとする。ここでは、説明を簡単にするために、1個の音声認識結果のみが渡されたものとする。
【0055】
応答生成部14の距離判定部140は、音声認識部13から渡された認識結果の示す地点と基準点設定部12により設定されている基準点との距離Dを算出し、そのDと先に設定した閾値Tとの大小を比較することで、認識結果の示す地点の遠近を判定する。明らかなように、D>Tならば基準点から遠いと判定される。
【0056】
以上は、拡大/縮小率可変な地図表示可能なカーナビゲーションシステムにおいて、拡大/縮小率Mに基づいて閾値を変更設定する場合について説明したが、これに限るものではない。例えば、遠近判定の基準範囲(確認応答を生成しない無条件検索対象地域)という概念を導入して、拡大/縮小率Mに基づいて当該基準範囲を変更設定し、認識結果の示す地点が単に当該基準範囲に入っているか否かにより、その地点が基準点から近いか否かを判定するようにしても構わない。ここで基準範囲は基準点を中心に設定するとよい。また拡大/縮小率Mに代えて、遠近判定の基準(閾値、基準範囲)を表す所定のパラメータを導入してもよい。
【0057】
[第4の実施形態]
以上に述べた実施形態では、基準点と認識結果(以下、認識結果は、第2の実施形態のように複数の候補がある場合には、再スコアリング後の1位候補を表すものとする)の示す地点との距離Dは、座標からユークリッド距離によって求めていた。しかし、この距離Dは、2点間の遠近の判定に用いるためのものであることから、ユークリッド距離に限るものではなく、2点間の遠近を表す尺度であればよい。
【0058】
そこで、基準点と認識結果の示す地点との間の距離(以下、基準点と認識結果との距離と称する)Dとして、ユークリッド距離に代えて、2点間の遠近を表す尺度を用いるようにした本発明の第4の実施形態に係る音声認識システムについて、日本における状況を例に、便宜的に図1の構成を援用して説明する。
【0059】
まず本実施形態では、位置座標を持つ認識対象語彙は、上位のものから順に、県、市町村、丁字、施設に階層化されており、それぞれの語は、市町村名であればそれが属す県、丁字名であればそれが属す県および市町村、施設名であればそれが属す県、市町村、丁字が判定できるものとする。また、現在地のように、GPSから送られる情報から位置座標のみしか求められない場合には、ユークリッド距離で位置座標の最も近い丁字を求め、その丁字、及びその丁字の属す県、市町村、丁字を現在地が属すものとする。
【0060】
このような例では、応答生成部14の距離判定部140は、音声認識部13での認識結果と基準点との距離Dを、基準点と認識結果とが同じ県に属す場合はD=0、そうでなければD=T(Tは遠近判定の閾値)とする。
【0061】
したがって応答生成部14では、基準点と認識結果とが同じ県に属さないときはD=Tとされることから、例えば図2ステップS12,S14から明らかなように確認メッセージを生成することになる。これに対し、基準点と認識結果とが同じ県に属すときはD=0とされることから、応答生成部14では、例えば図2ステップS12,S13から明らかなように認識結果のみを出力することになる。
【0062】
以上に述べた距離Dの計算(決定)手法を用いた場合、応答生成部14の距離判定部140での遠近判定、即ち距離Dと閾値Tとの大小比較は、Dを計算せずに同じ県に属すか否かにより判定を行うことと同義である。したがって、距離判定部140では、上記の手法により基準点と認識結果との距離Dを計算(決定)し、その距離Dを閾値Tと比較することで認識結果(の示す場所、施設)の遠近を判定する代わりに、Dを計算せずに基準点と認識結果とが同一県に属すか否かにより遠近判定を行うようにしても構わない。
【0063】
なお、ここでは基準点と認識結果とが同一県に属すか否かによって距離計算及び遠近判定をしたが、これは県でなくとも、市町村や丁字であってもよい。但し、遠近の判定基準に、例えば市町村を用いる場合には、認識結果が県名であれば、基準点と同一市町村に属すか否かが判定できなくなること、即ち認識結果が判定基準よりも上位階層の語となった場合には遠近判定ができなくなることを考慮する必要がある。そこで、このような場合は、基準点と認識結果とが同一階層の語で表される地域に属さないものとして扱い、D=Tとして、つまり認識結果(の示す場所、施設)は基準点から遠いものとして、応答生成部14で確認メッセージを生成すればよい。
【0064】
また、県より上位階層として地方−例えば、関東地方や東海地方など−という階層、あるいは一般に知られている地理的区分や行政単位とは異なる階層を設けて、同様に距離計算、遠近判定を行ってもよい。
【0065】
(第4の実施形態の変形例)
以上に述べた第4の実施形態では、遠近判定の基準が予め県などと決まっていたが、これに限るものではなく、例えば認識結果によって異なる判定基準を用いるようにしても構わない。
【0066】
そこで、遠近判定の基準を認識結果に応じて切り替え設定するようにした第4の実施形態の変形例について、再び日本の場合を例に、便宜的に図1の構成を援用して説明する。
【0067】
ここでは、県名より上位階層はないものとする。応答生成部14の距離判定部140は、音声認識部13での認識結果が県名であれば、無条件にD=Tとして、つまり認識結果(の示す場所、施設)は基準点から遠いものとして、応答生成部14で確認メッセージを生成させる。また距離判定部140は、認識結果が市町村の場合には、基準点と認識結果(の市町村)が属す県とが一致するか否かによって遠近を判定する。即ち距離判定部140は、認識結果より1つ上の階層において、基準点と一致するか否かによる遠近判定を行う。なお、認識結果が最上位階層の場合には、上述の県のように、無条件でD=T或いはD=0にするなどすればよい。
【0068】
この他に、階層単位ではなく、例えば「○○ガソリンスタンド××町店」などは市町村レベル、「□□遊園地」などは県レベルでというように、認識語彙やカテゴリごとに、判定基準を切り替えてもよい。更には、単語によっては無条件にD=Tにする、或いはD=0にするなどしてもよい。このような判定基準の切り替えは、例えば認識語彙に判定基準を指定するための属性を付与しておけば実現可能である。
【0069】
[第5の実施形態]
以上に述べた実施形態では、位置座標をもつ認識結果は、無条件に判定結果が決まっている場合を除き、必ず応答生成部14の距離判定部140において遠近判定を受けていた。しかし、認識結果が十分に信頼できる場合には、基準点からの距離とは無関係にユーザへの確認応答を生成しない方が、ユーザに不要な確認動作を強いることを回避できる。
【0070】
そこで、認識結果の信頼度に基づく確認応答生成制御を行うようにした本発明の第5の実施形態に係る音声認識システムについて、便宜的に図1の構成を援用すると共に図5のフローチャートを参照して説明する。
【0071】
今、音声認識部13から応答生成部14に複数の認識候補が認識結果として渡されたものとする。また、この認識候補には、入力音声(の特徴パターン系列)と当該候補(の標準特徴パターン)との類似度または距離を表す評価値である照合スコアSと、当該音声の長さ(時間)Tと、当該候補が位置情報を持つ語であるか否かを示す位置情報フラグPFとが付されているものとする。
【0072】
応答生成部14の距離判定部140は、まず1位候補について、位置情報フラグPFから位置座標を持つ語であるか否かを判定する(ステップS41)。1位候補が位置座標を持たない語である場合の動作は、例えば図3のステップS22と同様であり、応答生成部14から全体制御部11に1位候補のみが認識結果として出力される(ステップS42)。
【0073】
一方、1位候補が位置座標を持つ場合には、応答生成部14の距離判定部140は前記第2の実施形態(図3のフローチャート参照)と異なって、当該1位候補の信頼度Rを算出する(ステップS43)。以下、この信頼度Rについて述べる。
【0074】
まず、音声認識部13で取得される認識結果の照合スコアSは、単位時間(例えばフレーム周期)ごとのスコアの累積値である。したがって、認識結果の信頼度Rは単に照合スコアSの大きさだけからは決まらない。そこで本実施形態では、認識結果(1位候補)の信頼度Rを、例えば
R=S/T …(3)
によって求める。ここでTは認識対象となった音声の長さ(時間)であり、上述のようにスコアSと共に音声認識部13から渡される。この(3)式に従う信頼度Rの算出は距離判定部140で行うものとするが、音声認識部13で行うようにしてもよい。
【0075】
距離判定部140は、1位候補の信頼度Rを算出すると、当該信頼度Rを予め定められた閾値Aと比較することで、1位候補が信頼できるものであるか否かを判定する(ステップS44)。
【0076】
もし、RがAより大(R>A)ならば、距離判定部140は1位候補(認識結果)が十分信頼できるものと判定する。この場合、応答生成部14は、認識結果が位置座標を持たない場合、或いは認識結果と基準点との距離DがTより小さい場合と同様に、確認応答を生成せず、1位候補のみを全体制御部11に出力する(ステップS42)。
【0077】
一方、RがA以下(R≦A)ならば、距離判定部140は1位候補(認識結果)は信頼できないものと判定する。この場合、距離判定部140は前記第2の実施形態(で適用した図3のフローチャートのステップS23〜S26)と同様の処理ステップS45〜S48による遠近判定(距離判定)を行い、確認応答生成の判断を行う。
【0078】
以上、本発明の第1乃至第5の実施形態について説明したが、同実施形態における全体制御部11、基準点設定部12、音声認識部13、応答生成部14の各機能は、ソフトウェアとしても実現可能である。
【0079】
また、本発明は、以上の実施形態に係る音声認識システムで適用した手順、特に応答生成部14での遠近判定及び確認メッセージ(確認応答)生成処理と、全体制御部11でのユーザに対する確認メッセージ提示処理とを含む所定の手順をコンピュータに実行させるための(或いはコンピュータを音声認識システムの持つ所定の手段として機能させるための、或いはコンピュータに音声認識システムの持つ所定の機能を実現させるための)プログラムを記録したコンピュータ読み取り可能なCD−ROM等の記録媒体として実施することもできる。また、このプログラムが通信媒体を介してダウンロードされるものであっても構わない。
【0080】
この他、本発明の実現形態には上述の例に対して種々の変形が可能であり、それらも趣旨に反しない限り本発明の実施形態の範囲内である。
【0081】
【発明の効果】
以上詳述したように本発明によれば、入力音声に対する認識結果で表される地点が基準点から離れた場所にあると判定された場合に、ユーザに認識結果の確認を促す確認応答を提示して、ユーザの指示を仰ぐようにしたので、音声で指定可能な地図上の場所等を表す語彙の範囲、つまり検索対象範囲を限定することなく、誤認識による不要な誤動作を回避し、システムの使い勝手を向上することができる。
【図面の簡単な説明】
【図1】本発明の一実施形態に係る音声認識システムの概略構成を示すブロック図。
【図2】図1中の音声認識部13が1個の認識結果のみを出力する場合の応答生成部14の処理手順を説明するためのフローチャート。
【図3】図1中の音声認識部13が複数個の候補を認識結果として出力する場合の応答生成部14の処理手順を説明するためのフローチャート。
【図4】図1中の全体制御部11による(図3のフローチャートに従って動作する)応答生成部14からの通知内容に応じた処理手順を説明するためのフローチャート。
【図5】図1中の音声認識部13が複数個の候補を認識結果として出力する場合の応答生成部14の処理手順の変形例を説明するためのフローチャート。
【符号の説明】
11…全体制御部(提示手段)
12…基準点設定部
13…音声認識部
14…応答生成部
140…距離判定部(再スコアリング手段)

Claims (9)

  1. 音声による地図検索が可能なシステムに適用される音声認識支援方法であって、
    ユーザからの入力音声を認識してその認識結果を取得し、
    前記認識結果が地図上の地点を表す場合に、その認識結果の表す地点から地図検索の基準位置として設定されている基準点までの距離を判定し、
    前記認識結果の表す地点が前記基準点から遠いと判定された場合に、当該認識結果の正否の確認をユーザに対して促すための確認応答を生成して、その確認応答をユーザに提示することを特徴とする音声認識支援方法。
  2. 音声による地図検索が可能なシステムに適用される音声認識支援方法であって、
    ユーザからの入力音声を認識して複数の認識候補を認識結果として取得し、
    前記認識結果中の第1位候補が地図上の地点を表す場合に、前記認識結果中から地図上の地点を表す認識候補を抽出し、
    前記抽出された認識候補の各々の入力音声との類似度或いは距離を表す照合スコアを、当該認識結果の表す地点と地図検索の基準位置として設定されている基準点との距離を加味した新たなスコアに変換する再スコアリングを行い、
    前記再スコアリング後の各認識候補の新たなスコアで決まる第1位候補の表す地点から前記基準点までの距離を判定し、
    前記再スコアリング後の第1位候補の表す地点が前記基準点から遠いと判定された場合、前記再スコアリング後の所定数を上限とする上位候補について、その認識結果の正否の確認をユーザに対して促すための確認応答を生成して、その確認応答をユーザに提示することを特徴とする音声認識支援方法。
  3. 前記認識結果の表す地点から前記基準点までの距離を判定するための判定基準を、所定のパラメータに従って変更設定することを特徴とする請求項1または請求項2記載の音声認識支援方法。
  4. 前記基準点を含む距離判定の基準範囲を所定のパラメータに従って変更設定し、前記認識結果の表す地点から前記基準点までの距離を当該地点の前記基準範囲に対する位置関係から判定することを特徴とする請求項1または請求項2記載の音声認識支援方法。
  5. 前記距離判定の対象となる認識結果の信頼度を判定し、
    信頼できないと判定された場合のみ前記距離判定を行うことを特徴とする請求項1または請求項2記載の音声認識支援方法。
  6. 地図上の地点を表す認識対象語彙を地図上の所定の区分に応じて階層化して管理し、
    前記認識結果が地図上の地点を表す場合に、その地点から距離判定の基準となる階層の区分を決定し、その区分自体、またはその区分と前記基準点が属す区分との関係に応じて前記距離判定を行うことを特徴とする請求項1または請求項2記載の音声認識支援方法。
  7. 地図上の地点を表す認識語彙ごとに前記距離判定の基準を指定する属性を予め付与しておき、
    前記認識結果の表す地点の前記距離判定を、当該認識結果の認識語彙の属性で指定される判定基準に従って行うことを特徴とする請求項1または請求項2記載の音声認識支援方法。
  8. 音声による地図検索が可能なシステムに適用される音声認識システムであって、
    地図検索の基準位置となる基準点を設定する基準点設定部手段と、
    ユーザからの入力音声を認識してその認識結果を取得する音声認識手段と、
    前記音声認識手段により取得された認識結果が地図上の地点を表す場合に、当該認識結果の表す地点から前記基準点までの距離を判定する距離判定手段と、
    前記距離判定手段により前記認識結果の表す地点が前記基準点から遠いと判定された場合に、当該認識結果の正否の確認をユーザに対して促すための確認応答を生成する応答生成手段と、
    前記応答生成手段により生成された確認応答をユーザに提示する提示手段とを具備することを特徴とする音声認識システム。
  9. 音声による地図検索が可能なシステムに適用される音声認識システムであって、
    地図検索の基準位置となる基準点を設定する基準点設定部手段と、
    ユーザからの入力音声を認識して複数の認識候補を認識結果として取得する音声認識手段と、
    前記音声認識手段により取得された認識結果中の第1位候補が地図上の地点を表す場合に、前記認識結果中から地図上の地点を表す認識候補を抽出して、その抽出した認識候補の各々の入力音声との類似度或いは距離を表す照合スコアを、当該認識結果の表す地点と前記基準点との距離を加味した新たなスコアに変換する再スコアリングを行う再スコアリング手段と、
    前記再スコアリング手段による再スコアリング後の各認識候補の新たなスコアで決まる第1位候補の表す地点から前記基準点までの距離を判定する距離判定手段と、
    前記距離判定手段により前記再スコアリング後の第1位候補の表す地点が前記基準点から遠いと判定された場合、前記再スコアリング後の所定数を上限とする上位候補について、その認識結果の正否の確認をユーザに対して促すための確認応答を生成する応答生成手段と、
    前記応答生成手段により生成された確認応答をユーザに提示する提示手段とを具備することを特徴とする音声認識システム。
JP18585999A 1999-06-30 1999-06-30 音声認識支援方法及び音声認識システム Expired - Fee Related JP3990075B2 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP18585999A JP3990075B2 (ja) 1999-06-30 1999-06-30 音声認識支援方法及び音声認識システム
US09/606,150 US6718304B1 (en) 1999-06-30 2000-06-29 Speech recognition support method and apparatus
US10/687,707 US6978237B2 (en) 1999-06-30 2003-10-20 Speech recognition support method and apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP18585999A JP3990075B2 (ja) 1999-06-30 1999-06-30 音声認識支援方法及び音声認識システム

Publications (2)

Publication Number Publication Date
JP2001013991A JP2001013991A (ja) 2001-01-19
JP3990075B2 true JP3990075B2 (ja) 2007-10-10

Family

ID=16178138

Family Applications (1)

Application Number Title Priority Date Filing Date
JP18585999A Expired - Fee Related JP3990075B2 (ja) 1999-06-30 1999-06-30 音声認識支援方法及び音声認識システム

Country Status (2)

Country Link
US (2) US6718304B1 (ja)
JP (1) JP3990075B2 (ja)

Families Citing this family (33)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3990075B2 (ja) * 1999-06-30 2007-10-10 株式会社東芝 音声認識支援方法及び音声認識システム
JP4080680B2 (ja) * 2000-07-13 2008-04-23 パイオニア株式会社 携帯情報端末機および携帯情報端末機による施設内画像情報提供システム
US20020111810A1 (en) * 2001-02-15 2002-08-15 Khan M. Salahuddin Spatially built word list for automatic speech recognition program and method for formation thereof
JP4094335B2 (ja) * 2002-04-26 2008-06-04 松下電器産業株式会社 地図編集表示装置、地図管理システム、地図管理方法および地図記憶媒体
JP2004048352A (ja) * 2002-07-11 2004-02-12 Denso Corp 通信システムおよび情報通信方法
JP4040573B2 (ja) * 2003-12-12 2008-01-30 キヤノン株式会社 音声認識装置および方法
WO2006014343A2 (en) * 2004-07-02 2006-02-09 Text-Tech, Llc Automated evaluation systems and methods
US7630900B1 (en) * 2004-12-01 2009-12-08 Tellme Networks, Inc. Method and system for selecting grammars based on geographic information associated with a caller
TWI269268B (en) * 2005-01-24 2006-12-21 Delta Electronics Inc Speech recognizing method and system
KR100679044B1 (ko) * 2005-03-07 2007-02-06 삼성전자주식회사 사용자 적응형 음성 인식 방법 및 장치
EP1734509A1 (en) * 2005-06-17 2006-12-20 Harman Becker Automotive Systems GmbH Method and system for speech recognition
US7826945B2 (en) * 2005-07-01 2010-11-02 You Zhang Automobile speech-recognition interface
JP2007047412A (ja) * 2005-08-09 2007-02-22 Toshiba Corp 認識文法モデル作成装置、認識文法モデル作成方法、および、音声認識装置
US7590536B2 (en) 2005-10-07 2009-09-15 Nuance Communications, Inc. Voice language model adjustment based on user affinity
KR101063607B1 (ko) * 2005-10-14 2011-09-07 주식회사 현대오토넷 음성인식을 이용한 명칭 검색 기능을 가지는 네비게이션시스템 및 그 방법
JP2007286356A (ja) * 2006-04-17 2007-11-01 Funai Electric Co Ltd 電子機器
US7831431B2 (en) * 2006-10-31 2010-11-09 Honda Motor Co., Ltd. Voice recognition updates via remote broadcast signal
US8364481B2 (en) * 2008-07-02 2013-01-29 Google Inc. Speech recognition with parallel recognition tasks
CN102224542B (zh) * 2008-11-25 2012-12-19 旭化成株式会社 权重系数生成装置、声音识别装置、导航装置、车辆、权重系数生成方法
US8704649B2 (en) * 2009-01-21 2014-04-22 Korea Institute Of Science And Technology Vibrotactile device and method using the same
US8279053B2 (en) * 2009-05-19 2012-10-02 Korea Institute Of Science And Technology Apparatus and method for vibrotactile mobile device
US8239129B2 (en) * 2009-07-27 2012-08-07 Robert Bosch Gmbh Method and system for improving speech recognition accuracy by use of geographic information
US8701074B2 (en) 2010-04-13 2014-04-15 Synopsys, Inc. Automatic reduction of modes of electronic circuits for timing analysis
JP2012043000A (ja) * 2010-08-12 2012-03-01 Sony Corp 検索装置、検索方法、及び、プログラム
EP2503290A1 (en) * 2011-03-22 2012-09-26 Harman Becker Automotive Systems GmbH Curved labeling in digital maps
EP2503292B1 (en) 2011-03-22 2016-01-06 Harman Becker Automotive Systems GmbH Landmark icons in digital maps
JP6221301B2 (ja) * 2013-03-28 2017-11-01 富士通株式会社 音声処理装置、音声処理システムおよび音声処理方法
US20170262051A1 (en) * 2015-03-20 2017-09-14 The Eye Tribe Method for refining control by combining eye tracking and voice recognition
JP6663826B2 (ja) * 2016-09-08 2020-03-13 株式会社日立製作所 計算機及び応答の生成方法
KR102338990B1 (ko) * 2017-01-23 2021-12-14 현대자동차주식회사 대화 시스템, 이를 포함하는 차량 및 대화 처리 방법
JP6946115B2 (ja) * 2017-08-28 2021-10-06 株式会社東芝 移動体運行支援システム
DE102017216513A1 (de) * 2017-09-19 2018-09-27 Audi Ag Verfahren zum Verarbeiten einer Spracheingabe, über welche ein Benutzer eine Ortsangabe an einem Bedienterminal vorgibt, sowie Bedienvorrichtung und Kraftfahrzeug
US12165641B2 (en) * 2022-07-11 2024-12-10 Google Llc History-based ASR mistake corrections

Family Cites Families (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5274560A (en) * 1990-12-03 1993-12-28 Audio Navigation Systems, Inc. Sensor free vehicle navigation system utilizing a voice input/output interface for routing a driver from his source point to his destination point
US5566272A (en) * 1993-10-27 1996-10-15 Lucent Technologies Inc. Automatic speech recognition (ASR) processing using confidence measures
US6732077B1 (en) * 1995-05-12 2004-05-04 Trimble Navigation Limited Speech recognizing GIS/GPS/AVL system
JPH09114489A (ja) * 1995-10-16 1997-05-02 Sony Corp 音声認識装置,音声認識方法,ナビゲーション装置,ナビゲート方法及び自動車
US6067521A (en) * 1995-10-16 2000-05-23 Sony Corporation Interrupt correction of speech recognition for a navigation device
US6680694B1 (en) * 1997-08-19 2004-01-20 Siemens Vdo Automotive Corporation Vehicle information system
US6707421B1 (en) * 1997-08-19 2004-03-16 Siemens Vdo Automotive Corporation Driver information system
DE19813605A1 (de) * 1998-03-27 1999-09-30 Daimlerchrysler Aerospace Ag Erkennungssystem
US6598016B1 (en) * 1998-10-20 2003-07-22 Tele Atlas North America, Inc. System for using speech recognition with map data
US6522875B1 (en) * 1998-11-17 2003-02-18 Eric Morgan Dowling Geographical web browser, methods, apparatus and systems
US6526135B1 (en) * 1998-11-18 2003-02-25 Nortel Networks Limited Automated competitive business call distribution (ACBCD) system
US6636802B1 (en) * 1998-11-24 2003-10-21 Matsushita Electric Industrial Co., Ltd. Data structure of digital map file
JP3990075B2 (ja) * 1999-06-30 2007-10-10 株式会社東芝 音声認識支援方法及び音声認識システム
US6349257B1 (en) * 1999-09-15 2002-02-19 International Business Machines Corporation System for personalized mobile navigation information
US6553310B1 (en) * 2000-11-14 2003-04-22 Hewlett-Packard Company Method of and apparatus for topologically based retrieval of information
US6490521B2 (en) * 2000-12-28 2002-12-03 Intel Corporation Voice-controlled navigation device utilizing wireless data transmission for obtaining maps and real-time overlay information

Also Published As

Publication number Publication date
US6718304B1 (en) 2004-04-06
US20040083108A1 (en) 2004-04-29
JP2001013991A (ja) 2001-01-19
US6978237B2 (en) 2005-12-20

Similar Documents

Publication Publication Date Title
JP3990075B2 (ja) 音声認識支援方法及び音声認識システム
JP5158174B2 (ja) 音声認識装置
JP5334178B2 (ja) 音声認識装置およびデータ更新方法
US6385582B1 (en) Man-machine system equipped with speech recognition device
JP4270611B2 (ja) 入力システム
EP1542207B1 (en) Speech recognition method and apparatus
US7310602B2 (en) Navigation apparatus
US20070005206A1 (en) Automobile interface
JP3948441B2 (ja) 音声認識方法及び、車載装置
JP2002123290A (ja) 音声認識装置ならびに音声認識方法
CN107885720B (zh) 关键词生成装置以及关键词生成方法
JP3695995B2 (ja) ナビゲーション装置、ナビゲーション方法およびナビゲーションプログラムを格納するコンピュータ読み取り可能な記録媒体
JP2002297374A (ja) 音声検索装置
CN113112996A (zh) 用于基于语音的音频和文本对齐的系统和方法
JP3718088B2 (ja) 音声認識修正方式
JP4639990B2 (ja) 音声対話装置及び音声理解結果生成方法
JP4212947B2 (ja) 音声認識システムおよび音声認識の訂正・学習方法
JP2005114964A (ja) 音声認識方法および音声認識処理装置
JP3911835B2 (ja) 音声認識装置及びナビゲーションシステム
JP2000089782A (ja) 音声認識装置と方法、ナビゲーションシステム、及び記録媒体
JPH0916191A (ja) ナビゲータ用音声認識装置および方法
CN119068864B (zh) 一种语言识别和大语言模型融合的智能交互系统和方法
JP4635743B2 (ja) 音声対話装置及び音声理解結果生成方法
JP2007280104A (ja) 情報処理装置、情報処理方法、情報処理プログラムおよびコンピュータに読み取り可能な記録媒体
JP2001242887A (ja) 音声認識装置および音声認識ナビゲーション装置

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20050311

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20070702

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20070717

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20070719

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100727

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110727

Year of fee payment: 4

LAPS Cancellation because of no payment of annual fees