JP3576511B2 - Voice interaction device - Google Patents
Voice interaction device Download PDFInfo
- Publication number
- JP3576511B2 JP3576511B2 JP2001284377A JP2001284377A JP3576511B2 JP 3576511 B2 JP3576511 B2 JP 3576511B2 JP 2001284377 A JP2001284377 A JP 2001284377A JP 2001284377 A JP2001284377 A JP 2001284377A JP 3576511 B2 JP3576511 B2 JP 3576511B2
- Authority
- JP
- Japan
- Prior art keywords
- voice
- dictionary
- response
- unit
- user
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Lifetime
Links
Images
Landscapes
- Traffic Control Systems (AREA)
- Navigation (AREA)
Description
【0001】
【発明の属する技術分野】
本発明は、音声認識技術と音声合成技術を用いた音声対話装置に関するものである。
【0002】
【従来の技術】
近年、音声認識をして対話をすることにより所望の目的を達成するようにする音声対話装置が各種機器に搭載されてきており、例えば、手入力することなく操作を補助するようにナビゲーション装置などに搭載されている。
【0003】
この種の音声対話装置としては、例えば、ナビゲーション装置に搭載されている場合には、図23に示すように、使用者との間で対話を継続して、目的地の表示や設定をすることができるようになっている。
【0004】
【発明が解決しようとする課題】
しかしながら、このような従来の音声対話装置にあっては、例えば、ナビゲーション装置の目的地設定のための項目検索機能を用いて、図23に示すように、千葉県にある○○ゴルフ場を検索する場合には、その○○ゴルフ場が千葉県にあることを知っていなければ対話を継続することができず、検索不能になってしまう。
【0005】
要するに、使用者が対話装置側から発せられる質問に対する答えを持っていない場合には、対話が中断することになり、また、曖昧な答えしかできない場合には、間違った答えにより、適切な音声認識辞書を選択することができずに、使用者の目的を達成することができない、という問題があった。
【0006】
本発明は、このような問題を解決するためになされたもので、使用者が装置側の発する質問に正確に答えられない場合でも対話を継続して目的を達成することができる音声対話装置を提供するものである。
【0007】
【課題を解決するための手段】
本発明の音声対話装置は、使用者が発した音声に対応し、対話を行う音声対話装置において、入力された前記音声を認識する音声認識手段と、前記対話の階層毎に音声認識辞書が格納されている辞書格納手段と、前記対話に応じた辞書を準備する辞書準備手段と、前記使用者に対して発声を促す応答音声を出力する応答音声出力手段と、入力された前記音声を用いて次の応答音声を作成するとともに、前記音声が不明なことを表す内容のときは過去の前記応答音声または過去に入力された前記音声を用いて次の応答音声を作成するよう前記音声認識辞書を前記辞書準備手段に準備させて前記応答音声出力手段から前記応答音声を出力させる対話制御手段とを備える構成を有している。
【0008】
このような構成により、音声認識された使用者の言葉(音声)に応じた指示がなされることにより、音声認識辞書が辞書格納手段内から準備されて、使用者に対して発声を促す音声、すなわち、質問音声や応答音声などが出力され対話が継続される一方、音声認識された使用者の音声の内容が次の指示を確定できない内容のときには、対話を継続するのに有効な音声認識辞書が辞書格納手段内から準備されて、続けて、質問音声や応答音声などが出力されることにより対話が継続される。したがって、使用者が応答できない場合や曖昧な答えしかできない場合でも、対話を中断することなく継続させることができ、目的を達成することができる。
【0009】
本発明の音声対話装置の前記辞書準備手段は、前記辞書格納手段内の前記音声認識辞書を選択結合して対話に必要な辞書を準備し、前記対話制御手段は、前記音声認識手段により認識された前記音声が不明なことを表す内容のときには、次に遷移する可能性のある階層の前記辞書格納手段内の前記音声認識辞書を前記辞書準備手段に選択結合させて準備させる構成を有している。
【0010】
このような構成により、音声認識された使用者の音声の内容が不明のために応答できない意味内容で次の指示を確定できないときには、対話を継続させたときに使用される可能性のある全ての音声認識辞書が辞書格納手段内から選択されて結合されることにより準備されて、続けて、質問音声や応答音声などが出力されることにより対話が継続される。したがって、使用者が答えを知らないために応答できない場合でも、対話を中断することなく継続させることができ、目的を達成することができる。
【0011】
本発明の音声対話装置の前記辞書準備手段は、前記辞書格納手段内の前記音声認識辞書を選択して対話に必要な辞書を準備し、前記対話制御手段は、前記音声認識手段により認識された前記音声が不明なことを表す内容のときには、前記応答音声出力手段に別の質問をする音声を出力させて前記辞書準備手段に前記辞書格納手段から対話に必要な前記音声認識辞書を選択準備させる構成を有している。
【0012】
このような構成により、音声認識された使用者の音声の内容が不明のために応答できない意味内容で次の指示を確定できないときには、別の質問がされて、その答えに対応する音声認識辞書が辞書格納手段内から選択されることにより準備されることにより、続けて、質問音声や応答音声などが出力され対話が継続される。したがって、使用者が答えを知らないために応答できない場合でも、対話を中断することなく継続させることができ、目的を達成することができる。
【0013】
本発明の音声対話装置の前記辞書準備手段は、前記辞書格納手段内の前記音声認識辞書を選択結合して対話に必要な辞書を準備し、前記対話制御手段は、前記音声認識手段により認識された音声が1回目の不明なことを意味する内容のときには、前記応答音声出力手段に別の応答音声を出力させて前記辞書準備手段に前記辞書格納手段から対話に必要な前記音声認識辞書を選択準備させるとともに、前記音声認識手段により認識された前記使用者の音声が不明なことを表す内容のときが続いたときには、次に遷移する可能性のある階層全ての前記辞書格納手段内の前記音声認識辞書を前記辞書準備手段に選択結合させて準備させる構成を有している。
【0014】
このような構成により、内容が不明で応答できない意味内容であるために次の指示を確定できない使用者の音声を初めて音声認識したときには、別の質問がされて、その答えに対応する音声認識辞書が辞書格納手段内から選択されることにより準備されて、質問音声や応答音声などが出力されることにより対話が継続されるが、次の音声認識でも使用者の音声の内容が不明のために指示を確定できないときには、対話を継続させたときに使用される可能性のある全ての音声認識辞書が辞書格納手段内から選択されて結合されることにより準備されて、続けて、質問音声や応答音声などが出力されることにより対話が継続される。したがって、使用者が答えを知らないために応答できない場合が繰り返されても、対話を中断することなく継続させることができ、目的を達成することができる。
【0015】
本発明の音声対話装置の前記辞書準備手段は、前記辞書格納手段内の前記音声認識辞書を選択結合して対話に必要な辞書を準備し、前記対話制御手段は、前記音声認識手段により認識された音声が曖昧であることを表す内容のときには、過去の前記応答音声または過去に入力された前記音声を用いて次の応答音声を作成するよう前記音声認識辞書を前記辞書準備手段に準備させる構成を有している。
【0016】
このような構成により、音声認識された使用者の音声の内容が曖昧な答えの意味内容で次の指示を確定できないときには、その曖昧さを表す部分の言葉を除いたときに対応する音声認識辞書と共に概念的に近い音声認識辞書が辞書格納手段内から選択されて結合されることにより準備されて、続けて、質問音声や応答音声などが出力されることにより対話が継続される。したがって、使用者が正確な答えを知らない場合でも、対話を中断することなく継続させることができ、目的を達成することができる。
【0017】
本発明の音声対話装置の前記辞書準備手段は、前記辞書格納手段内の前記音声認識辞書を選択結合して対話に必要な辞書を準備し、前記対話制御手段は、前記音声認識手段により認識された音声が複数の内容を含むときには、前記複数の内容毎に対応する前記辞書格納手段内の前記音声認識辞書の複数を前記辞書準備手段に選択結合させて準備させる構成を有している。
【0018】
このような構成により、音声認識された使用者の音声が複数の内容を含む意味内容で次の指示を確定できないときには、それぞれの内容に対応する音声認識辞書が辞書格納手段内から選択されて結合されることにより準備されて、続けて、質問音声や応答音声などが出力されることにより対話が継続される。したがって、使用者が正確な答えを知らない場合でも、対話を中断することなく継続させることができ、目的を達成することができる。
【0019】
本発明の音声対話装置の前記辞書準備手段は、前記辞書格納手段内の前記音声認識辞書を一つ選択して対話に必要な辞書を準備し、前記対話制御手段は、前記音声認識手段により認識された音声が複数の内容を含むときには、前記内容に含まれる一つの内容に対応する前記辞書格納手段内の前記音声認識辞書を前記辞書準備手段に選択準備させて、前記応答音声出力手段に質問をする音声を出力させることにより、前記音声認識手段により認識される音声で対話の正誤を確認し、誤っていた場合には、前記音声に含まれる他の内容に対応する前記辞書格納手段内の前記音声認識辞書を前記辞書準備手段に選択準備させる構成を有している。
【0020】
このような構成により、音声認識された使用者の音声が複数の内容を含む意味内容で次の指示を確定できないときには、まずは一つの内容に対応する音声認識辞書が辞書格納手段内から選択準備されて、別の質問がされることにより、その一つの内容でよかったのか否かが確認され、誤っていた場合には、他の内容に対応する音声認識辞書が辞書格納手段内から選択準備されて、続けて、質問音声や応答音声などが出力されることにより対話が継続される。したがって、使用者が正確な答えを知らない場合でも、対話を中断することなく継続させることができ、目的を達成することができる。
【0021】
【発明の実施の形態】
以下、本発明を図面に基づいて説明する。図1〜図6は本発明の音声対話装置の第1の実施の形態を示す図である。
【0022】
まず、装置構成を説明する。図1において、音声対話装置10は、使用者が入力した音声を認識する音声認識部11と、使用者との間の音声による対話を制御する対話制御部12と、対話の階層(種類や進度など)毎に必要な音声認識辞書が全対話階層分格納されている辞書格納部13と、対話制御部12からの指令により辞書格納部13内に格納されている音声認識辞書を1個以上選択して結合することにより音声認識部11が用いる音声認識辞書を作成する辞書選択結合部(辞書準備手段)14と、対話制御部12の指令により使用者に対して発声を促す質問音声あるいは応答音声を発する応答音声出力部15と、この応答音声出力部15で用いられる複数の音声を格納する応答音声格納部16と、不明であることを意味する言葉が項目として登録されている不明表現語辞書17と、対話制御部12の問い合わせに応じて不明表現語辞書17を参照し音声認識結果が不明なことを表現しているかどうか判定する不明表現語判定部18とから構成されており、ナビゲーション装置に搭載されて検索や目的地設定などの操作を音声入力により補助するようになっている。
【0023】
次に本発明の音声対話装置による処理動作を、図2に示す対話のフロー図を用いて説明する。
【0024】
まず、使用者(ナビゲーション装置のユーザー)の指示により音声対話が開始されると、対話制御部12は辞書選択結合部14に検索のジャンルを表す言葉を含む辞書の作成を指令する。この指令により、辞書選択結合部14は音声認識辞書格納部13から図3に示すような検索ジャンルを表す言葉を含む音声認識辞書の作成を行う。
【0025】
次いで、対話制御部12は応答音声出力部15に対し、使用者に対して言葉の発声を促すメッセージを出力することを指令する。この指令に対し、応答音声出力部15は応答音声格納部16から「ご用はなんでしょうか。」というメッセージを選択し、使用者に提示する。
【0026】
次いで、対話制御部12は音声認識部11に対し、辞書選択結合部14が作成した辞書を用いて音声認識を実行することを指令する。先の「ご用はなんでしょうか。」というメッセージを聞いた使用者が施設の検索を行うために「施設検索。」を発声して音声対話装置10に入力することにより、入力された音声は音声認識部11で認識され、認識結果として、「施設検索。」がコマンドとしてとして選ばれ、対話制御部12へ出力される。この結果により、対話制御部12は辞書選択結合部14に検索のジャンルを表す言葉と共に「わかりません。」などの使用者が施設の種類を知らない場合に発声する可能性のある言葉をも含む辞書の選択を指令する。この指令により、辞書選択結合部14は音声認識辞書格納部13から図4に示すような検索ジャンルを表す言葉と「わかりません。」などの言葉とを含む音声認識辞書の選択(作成)を行う。
【0027】
次いで、対話制御部12は応答音声出力部15に対し、使用者に対して施設の種類の発声を促すメッセージを出力することを指令する。この指令に対し、応答音声出力部15は応答音声格納部16から「施設の種類をお話ください。」というメッセージを選択し、使用者に提示する。
【0028】
次いで、対話制御部12は音声認識部11に対し、辞書選択結合部14が作成した辞書を用いて音声認識を実行することを指令する。先の「施設の種類をお話ください。」というメッセージを聞いた使用者が検索したいジャンルを表す言葉として、「ゴルフ場。」を発声して音声対話装置10に入力することにより、入力された音声は音声認識部11で認識され、認識結果として、「ゴルフ場。」が検索のジャンルとして選ばれる。
【0029】
次いで、対話制御部12はゴルフ場の所在地を絞り込むため辞書選択結合部14に県名と「わかりません。」など使用者がゴルフ場の所在する県名を知らない場合に発声する可能性のある言葉とで構成された辞書の作成を指令する。この指令により、辞書選択結合部14は音声認識辞書格納部13から図5に示すような県名と「わかりません。」などの言葉とで構成された音声認識辞書の作成を行う。
【0030】
次いで、対話制御部12は応答音声出力部15に対し、使用者に対してゴルフ場の所在する県名の発声を促すメッセージを出力することを指令する。この指令に対し、応答音声出力部15は応答音声格納部16から「ゴルフ場のある県名をお話ください。」というメッセージを選択し、使用者に提示する。このメッセージを聞いた使用者が、ゴルフ場がある県名が分からないため「わかりません。」と発声して音声対話装置10に入力することにより、入力された音声は音声認識部11で認識され、認識結果として、「わかりません。」が選ばれる。
【0031】
次いで、対話制御部12はこの結果を不明表現語判定部18へ出力する。不明表現語判定部18はこの結果を受け取り、図6に示すような不明であることを示す言葉を項目とする不明表現語辞書17を参照し、不明を表す言葉かどうかの判定を行い、その結果を対話制御部12へ出力する。この場合、「わかりません。」が不明を表す言葉として判定されるので、この判定結果に対し、対話制御部12は辞書選択結合部14に県名毎に分けられたゴルフ場の辞書をすべて結合した辞書の作成を指令する。この指令により、辞書選択結合部14は音声認識辞書格納部13から県名毎に分けられたゴルフ場の辞書をすべて取り出して結合した音声認識辞書の作成を行う。
【0032】
次いで、対話制御部12は応答音声出力部15に対し、使用者に対してゴルフ場の名称の発声を促すメッセージを出力することを指令する。この指令に対し、応答音声出力部15は応答音声格納部16から「ゴルフ場の名前をお話ください。」というメッセージを選択し、使用者に提示する。このメッセージを聞いた使用者が、ゴルフ場の名前「○○ゴルフ場。」と発声して音声対話装置10に入力することにより、入力された音声は音声認識部11で認識され、認識結果として、「○○ゴルフ場。」が選ばれ、検索対象が確定する。
【0033】
次いで、対話制御部12は応答音声出力部15に対し、確定した検索対象「○○ゴルフ場。」を使用者に提示することを指令する。この指令に対し、応答音声出力部15は応答音声格納部16に格納されている内容と「○○ゴルフ場。」を組み合わせて、「○○ゴルフ場の地図を表示します。」というメッセージを作成し、使用者に提示する。
【0034】
以上の動作により、検索対象の目的地などの地図をナビゲーション装置の表示画面に表示させることができる。
【0035】
このように第1の実施の形態においては、辞書選択結合部14および不明表現語判定部18を設けることにより、使用者が例えばゴルフ場の所在する県名を知らずに「わからない。」などと、対話中の質問に対して答えたために次に行うべき指示が確定できない場合でも、対話を継続させたときに使用されるであろう、県名毎に分けられたゴルフ場の辞書をすべて取り出して結合した音声認識辞書を作成し音声認識を行うことによって、音声対話の流れが中断してしまうことなく検索対象を確定することができる。したがって、使用者が答えを知らない応答の場合でも、対話を中断することなく継続させることができ、目的を達成することができる。
【0036】
次に、図7〜図9は本発明の音声対話装置の第2の実施の形態を示す図である。なお、この第2の実施の形態は、上述した第1の実施の形態と略同様に構成されているので、図面を流用して、同様な構成には同一の符号を付して特徴部分を説明する。
【0037】
まず、装置構成を説明する。図7において、音声対話装置20は、音声認識部11と、対話制御部12と、辞書格納部13と、応答音声出力部15と、応答音声格納部16と、不明表現語辞書17と、不明表現語判定部18とを備えるとともに、上述第1の実施の形態における辞書選択結合部14に代えて、辞書選択部(辞書準備手段)24を設けられており、この辞書選択部24は、対話制御部12からの指令により辞書格納部13内に格納されている音声認識辞書を1個選択することにより音声認識部11が用いる音声認識辞書を作成するようになっている。
【0038】
次に本発明の音声対話装置による処理動作を、図8に示す対話のフロー図を用いて説明する。
【0039】
まず、上述第1の実施の形態と同様に、使用者の指示により音声対話が開始されて、「ご用はなんでしょうか。」というメッセージに対して、使用者が図3に示す検索ジャンルの「施設検索。」を発声し、この「施設検索。」がコマンドとして選ばれると、図4に示すような検索ジャンルを表す言葉と「わかりません。」などの言葉とを含む音声認識辞書が作成されて、「施設の種類をお話ください。」というメッセージが使用者に提示される。
【0040】
そして、この「施設の種類をお話ください。」というメッセージを聞いた使用者が、検索したいジャンルを表す言葉がわからないときに、「わかりません。」と発声して音声対話装置20に入力することにより、入力された音声は音声認識部11で認識され、認識結果として、「わかりません。」が選ばれる。
【0041】
次いで、対話制御部12はこの結果を不明表現語判定部18へ出力する。不明表現語判定部18はこの結果を受け取り、図6に示すような不明であることを示す言葉を項目とする不明表現語辞書17を参照し、不明を表す言葉か否かの判定を行い、その結果を対話制御部12へ出力する。この場合、「わかりません。」が不明を表す言葉として判定されるので、この判定結果に対し、対話制御部12は施設の所在地を絞り込むため辞書選択部24に県名で構成された辞書の選択を指令する。この指令により、辞書選択部24は音声認識辞書格納部13から図9に示すような県名で構成された音声認識辞書の選択を行う。
【0042】
次いで、対話制御部12は応答音声出力部15に対し、使用者に対して施設の所在する県名の発声を促すメッセージを出力することを指令する。この指令に対し、応答音声出力部15は応答音声格納部16から「施設のある県名をお話ください。」というメッセージを選択し、使用者に提示する。このメッセージを聞いた使用者が、施設のある県名「千葉県。」を発声して音声対話装置20に入力することにより、入力された音声は音声認識部11で認識され、認識結果として、「千葉県。」が選ばれる。この結果に対し、対話制御部12は辞書選択部24に千葉県にあるすべてのジャンルの施設で構成された辞書の選択を指令する。この指令により、辞書選択部24は音声認識辞書格納部13から千葉県にあるすべてのジャンルの施設で構成された辞書の選択を行う。
【0043】
次いで、対話制御部12は応答音声出力部15に対し、使用者に対して施設の名称の発声を促すメッセージを出力することを指令する。この指令に対し、応答音声出力部15は応答音声格納部16から「千葉県の施設の名前をお話ください。」というメッセージを選択し、使用者に提示する。このメッセージを聞いた使用者が、施設の名前「○○ゴルフ場。」と発声して音声対話装置20に入力することにより、入力された音声は音声認識部11で認識され、認識結果として、「○○ゴルフ場。」が選ばれ、検索対象が確定する。
【0044】
次いで、対話制御部12は応答音声出力部15に対し、確定した検索対象「○○ゴルフ場。」を使用者に提示することを指令する。この指令に対し、応答音声出力部15は応答音声格納部16に格納されている内容と「○○ゴルフ場。」を組み合わせて、「○○ゴルフ場の地図を表示します。」というメッセージを作成し、使用者に提示する。
【0045】
以上の動作により、検索対象の目的地などの地図をナビゲーション装置の表示画面に表示させることができる。
【0046】
このように第2の実施の形態においては、辞書選択部24および不明表現語判定部18を設けることにより、使用者が例えば施設のジャンルの名称を知らずに「わからない。」などと、対話中の質問に対して答えたために次に行うべき指示が確定できない場合でも、県名を知っていれば県名毎に分けられたすべてのジャンルの施設を含む辞書を用いて音声認識を行うことによって、音声対話の流れが中断してしまうことなく検索対象を確定することができる。したがって、使用者が答えを知らない応答の場合でも、対話を中断することなく継続させることができ、目的を達成することができる。
【0047】
また、この第2の実施の形態の他の態様としては、図10に示すように、「施設の種類をお話ください。」というメッセージに対して、また、「施設のある県名をお話ください。」というメッセージに対しても「わかりません。」という発声が繰り返し入力された場合には、辞書選択部24にすべてのジャンルの施設で構成された辞書の選択を行って、「施設の名前をお話ください。」というメッセージを使用者に提示することによって、このメッセージを聞いた使用者が、施設の名前「○○ゴルフ場。」と発声して音声対話装置20に入力することにより、検索対象として「○○ゴルフ場。」を確定し、「○○ゴルフ場の地図を表示します。」というメッセージを使用者に提示することになる。
【0048】
次に、図11〜図14は本発明の音声対話装置の第3の実施の形態を示す図である。なお、この第3の実施の形態は、上述した第1の実施の形態と略同様に構成されているので、図面を流用して、同様な構成には同一の符号を付して特徴部分を説明する。
【0049】
まず、装置構成を説明する。図11において、音声対話装置30は、音声認識部11と、対話制御部12と、辞書格納部13と、辞書選択結合部14と、応答音声出力部15と、応答音声格納部16とを備えるとともに、上述第1の実施の形態における不明表現語辞書17および不明表現語判定部18に代えて、曖昧表現語辞書37および曖昧表現語判定部38が設けられており、また加えて、距離計算部39が設けられている。
【0050】
曖昧表現語辞書37は、曖昧であることを意味する言葉が項目として登録されており、曖昧表現語判定部38は、対話制御部12の問い合わせに応じて曖昧表現語辞書37を参照し音声認識結果が曖昧なことを表現しているかどうか判定するようになっている。
【0051】
距離計算部39は、特定距離内に含まれるか否かを計算して検索対象とする範囲を選択するようになっており、例えば、東京都の指定に対しては隣接県の千葉県、埼玉県、神奈川県、山梨県を選択するようになっている。
【0052】
次に本発明の音声対話装置による処理動作を、図12に示す対話のフロー図を用いて説明する。
【0053】
まず、上述第1の実施の形態と同様に、使用者の指示により音声対話が開始されて、「ご用はなんでしょうか。」というメッセージに対して、使用者が図3に示す検索ジャンルの「施設検索。」を発声し、次いで、図4に示すような検索ジャンルの音声認識辞書が作成されて「施設の種類をお話ください。」というメッセージが使用者に提示されるのに対して、使用者が「ゴルフ場。」と発声して音声対話装置30に入力することにより、入力された音声が音声認識部11で認識されて、「ゴルフ場。」が検索のジャンルとして選ばれる。
【0054】
そして、対話制御部12はゴルフ場の所在地を絞り込むために、県名と、その県名に連接する「かなあ。」、「の辺り。」などの使用者がゴルフ場の所在する県名を曖昧にしか知らない場合に発声する可能性のある言葉とで構成された辞書の作成を辞書選択結合部14に指令する。この指令により、辞書選択結合部14は図13に示すように県名を主体辞書とするとともにその県名に連接する「かなあ。」、「の辺り。」などの言葉を連接辞書とする音声認識辞書を音声認識辞書格納部13から選択して作成する。
【0055】
次いで、対話制御部12は応答音声出力部15に対し、使用者に対してゴルフ場の所在する県名の発声を促すメッセージを出力することを指令する。この指令に対し、応答音声出力部15は応答音声格納部16から「ゴルフ場のある県名をお話ください。」というメッセージを選択し、使用者に提示する。このメッセージを聞いた使用者が、第N番目の対話階層において(ただし、Nは自然数である。以下同じ。)、ゴルフ場がある県名が曖昧なため「東京都かなあ。」と発声して音声対話装置30に入力することにより、入力された音声は音声認識部11で認識され、認識結果として、「東京都かなあ。」が選ばれる。
【0056】
次いで、対話制御部12はこの結果を曖昧表現語判定部38へ出力する。曖昧表現語判定部38はこの結果を受け取り、図14に示すような曖昧であることを示す言葉を項目とする曖昧表現語辞書37を参照し、曖昧を表す言葉を含むか否かの判定を行い、その結果を対話制御部12へ出力する。この場合、「かなあ。」が曖昧を表す言葉として判定される。この判定結果に対し、対話制御部12は距離計算部39に対して認識結果から曖昧を表す言葉を取り除いた「東京都。」に対する各県の距離を計算し、東京都と距離が近い県を選択することを指令する。この指令に対し距離計算部39は千葉県、埼玉県、神奈川県、山梨県を選択し辞書選択結合部14にこれら4県に東京都を加えたゴルフ場の辞書を結合することを指令する。この指令により、辞書選択結合部14は音声認識辞書格納部13から千葉県、埼玉県、神奈川県、山梨県、東京都にあるゴルフ場の辞書を取り出して結合し、第N+1番目の対話階層用の音声認識辞書の作成を行う。
【0057】
次いで、対話制御部12は応答音声出力部15に対し、使用者に対してゴルフ場の名称の発声を促すメッセージを出力することを指令する。この指令に対し、応答音声出力部15は応答音声格納部16から「ゴルフ場の名前をお話しください。」というメッセージを選択し、使用者に提示する。このメッセージを聞いた使用者が、ゴルフ場の名前「○○ゴルフ場。」と発声して音声対話装置30に入力することにより、入力された音声は音声認識部11で認識され、認識結果として、「○○ゴルフ場。」が選ばれ、検索対象が確定する。
【0058】
次いで、対話制御部12は応答音声出力部15に対し、確定した検索対象「○○ゴルフ場。」を使用者に提示することを指令する。この指令に対し、応答音声出力部15は応答音声格納部16に格納されている内容と「○○ゴルフ場。」を組み合わせて、「○○ゴルフ場の地図を表示します。」というメッセージを作成し、使用者に提示する。
【0059】
以上の動作により、検索対象の目的地などの地図をナビゲーション装置の表示画面に表示させることができる。
【0060】
このように第3の実施の形態においては、辞書選択結合部14および曖昧表現語判定部38を設けることにより、使用者が例えばゴルフ場の所在する県名について曖昧にしか知らずに「東京都かなあ。」などと、対話中の質問に対して答えたために次に行うべき指示が確定できない場合でも、東京都から距離的に近い県のゴルフ場の辞書を結合した音声認識辞書を作成して音声認識を行うことによって、音声対話の流れが中断してしまうことなく検索対象を確定することができる。したがって、使用者が正確な答えを知らずに曖昧な応答になってしまう場合でも、対話を中断することなく継続させることができ、目的を達成することができる。
【0061】
次に、図15〜図18は本発明の音声対話装置の第4の実施の形態を示す図である。なお、この第4の実施の形態は、上述した第3の実施の形態と略同様に構成されているので、図面を流用して、同様な構成には同一の符号を付して特徴部分を説明する。
【0062】
まず、装置構成を説明する。図15において、音声対話装置40は、音声認識部11と、対話制御部12と、辞書格納部13と、辞書選択結合部14と、応答音声出力部15と、応答音声格納部16と、曖昧表現語辞書37と、曖昧表現語判定部38とを備えるとともに、上述第3の実施の形態における構成に加えて、概念辞書テーブル47および類似概念選択部48が設けられている。
【0063】
概念辞書テーブル47は、図17に示すように、類似する概念を関連づけして予め設定されているものであり、類似概念選択部48は、概念辞書テーブル47を参照していずれを採用するか決定するようになっている。
【0064】
次に本発明の音声対話装置による処理動作を、図16に示す対話のフロー図を用いて説明する。
【0065】
まず、上述第3の実施の形態と同様に、使用者の指示により音声対話が開始されて、「ご用はなんでしょうか。」というメッセージに対して、使用者が図3に示す検索ジャンルの「施設検索。」を発声し、この「施設検索。」がコマンドとして選ばれる。
【0066】
そして、この「施設検索。」が指示されると、対話制御部12は施設の種類を絞り込むために、施設の名称と、その名称に連接する「かなあ。」、「の辺り。」などの使用者が施設の種類が曖昧にしか知らない場合に発声する可能性のある言葉とで構成された辞書の作成を辞書選択結合部14に指令する。この指令により、辞書選択結合部14は図18に示すように施設の名称を主体辞書とするとともにその名称に連接する「かなあ。」、「の辺り。」などの言葉を連接辞書とする音声認識辞書を音声認識辞書格納部13から選択して作成する。
【0067】
次いで、対話制御部12は音声認識部11に対し、辞書選択結合部14が作成した辞書を用いて音声認識を実行することを指令するとともに、応答音声出力部15に対し、使用者に対して施設の種類の発声を促すメッセージを出力することを指令する。この指令に対し、応答音声出力部15は応答音声格納部16から「施設の種類をお話ください。」という第N番目の対話階層用のメッセージを選択し、使用者に提示する。この「施設の種類をお話ください。」というメッセージを聞いた使用者が、第N番目の対話階層において、検索したいジャンルを表す言葉として、「動物園かなあ。」と発声して音声対話装置40に入力することにより、入力された音声は音声認識部11で認識され、認識結果として、「動物園かなあ。」が選ばれる。
【0068】
次いで、対話制御部12はこの結果を曖昧表現語判定部38へ出力する。曖昧表現語判定部38はこの結果を受け取り、図14に示すような曖昧であることを示す言葉を項目とする曖昧表現語辞書37を参照し、曖昧を表す言葉を含むか否かの判定を行い、その結果を対話制御部12へ出力する。この場合、「かなあ。」が曖昧を表す言葉として判定される。この判定結果に対し、対話制御部12は類似概念選択部48に対して認識結果から曖昧を表す言葉を取り除いた「動物園。」と近い概念の検索ジャンルを図17に示すような概念辞書テーブル47を参照して「遊園地。」と決定し、この結果を対話制御部12へ出力する。対話制御部12はこの結果を認識結果の「動物園。」と共に記憶する。
【0069】
次いで、対話制御部12は応答音声出力部15に対し、使用者に対して施設の所在する県名の発声を促すメッセージを出力することを指令する。この指令に対し、応答音声出力部15は応答音声格納部16から「施設のある県名をお話ください。」というメッセージを選択し、使用者に提示する。このメッセージを聞いた使用者は、「大阪府。」と発声して音声対話装置40に入力することにより、入力された音声は音声認識部11で認識され、認識結果として、「大阪府。」が選ばれる。
【0070】
次いで、対話制御部12は辞書選択結合部14に対し、先に記憶した「動物園。」と「遊園地。」の2ジャンルの辞書を結合することを指令する。この指令により、辞書選択結合部14は音声認識辞書格納部13から大阪府の動物園と遊園地の施設辞書を取り出して結合し、第N+1番目の対話階層用の音声認識辞書の作成を行う。
【0071】
次いで、対話制御部12は応答音声出力部15に対し、使用者に対して施設の名称の発声を促すメッセージを出力することを指令する。この指令に対し、応答音声出力部15は応答音声格納部16から「施設の名前をお話しください。」というメッセージを選択し、使用者に提示する。このメッセージを聞いた使用者が、動物園と曖昧に記憶している遊園地の名前「○○パーク。」と発声して音声対話装置40に入力することにより、入力された音声は音声認識部11で認識され、認識結果として、「○○パーク。」が選ばれ、検索対象が確定する。
【0072】
次いで、対話制御部12は応答音声出力部15に対し、確定した検索対象「○○パーク。」を使用者に提示することを指令する。この指令に対し、応答音声出力部15は応答音声格納部16に格納されている内容と「○○パーク。」を組み合わせて、「○○パークの地図を表示します。」というメッセージを作成し、使用者に提示する。
【0073】
以上の動作により、検索対象の目的地などの地図をナビゲーション装置の表示画面に表示させることができる。
【0074】
このように第4の実施の形態においては、辞書選択結合部14、曖昧表現語判定部38および類似概念選択部48とを設けることにより、使用者が例えば施設の種類について曖昧にしか知らずに「動物園かなあ。」などと、対話中の質問に対して答えたために次に行うべき指示が確定できない場合でも、動物園に類似する施設の遊園地の辞書を結合した音声認識辞書を作成して音声認識を行うことによって、音声対話の流れが中断してしまうことなく検索対象を確定することができる。したがって、使用者が正確な答えを知らずに曖昧な応答になってしまう場合でも、対話を中断することなく継続させることができ、目的を達成することができる。
【0075】
次に、図19および図20は本発明の音声対話装置の第5の実施の形態を示す図である。なお、この第5の実施の形態は、上述した第1の実施の形態と略同様に構成されているので、図面を流用して、同様な構成には同一の符号を付して特徴部分を説明する。
【0076】
まず、装置構成を説明する。図19において、音声対話装置50は、音声認識部11と、対話制御部12と、辞書格納部13と、辞書選択結合部14と、応答音声出力部15と、応答音声格納部16とを備えるとともに、上述第1の実施の形態における不明表現語辞書17および不明表現語判定部18に代えて、複数結果判定部58を設けられており、この複数結果判定部58は、対話制御部12の問い合わせに応じて音声認識結果が複数かどうかを判定するようになっている。
【0077】
次に本発明の音声対話装置による処理動作を、図20に示す対話のフロー図を用いて説明する。なお、ここでは、使用者が千葉県の○○ゴルフ場を検索することを目的としているが、○○ゴルフ場の所在地の記憶が曖昧で東京都か千葉県にあると認識している場合を一例に説明する。
【0078】
まず、上述第1の実施の形態と同様に、使用者の指示により音声対話が開始されて、「ご用はなんでしょうか。」というメッセージに対して、使用者が図3に示す検索ジャンルの「施設検索。」を発声し、次いで、図4に示すような検索ジャンルの音声認識辞書が作成されて「施設の種類をお話ください。」というメッセージが使用者に提示されるのに対して、使用者が「ゴルフ場。」と発声して音声対話装置50に入力することにより、入力された音声が音声認識部11で認識されて、「ゴルフ場。」が検索のジャンルとして選ばれる。
【0079】
そして、対話制御部12はゴルフ場の所在地を絞り込むために辞書選択結合部14に県名を表す言葉で構成された辞書の作成を指令する。この指令により、辞書選択結合部14は音声認識辞書格納部13から図9に示すような県名で構成された音声認識辞書の作成を行う。
【0080】
次いで、対話制御部12は応答音声出力部15に対し、使用者に対してゴルフ場の所在する県名の発声を促すメッセージを出力することを指令する。この指令に対し、応答音声出力部15は応答音声格納部16から「ゴルフ場のある県名をお話ください。」というメッセージを選択し、使用者に提示する。このメッセージを聞いた使用者が、ゴルフ場がある県名が曖昧なため「東京都か千葉県。」と発声して音声対話装置50に入力することにより、入力された音声は音声認識部11で認識され、認識結果として、「東京都か千葉県。」が得られる。
【0081】
次いで、対話制御部12はこの結果を複数結果判定部58へ出力する。複数結果判定部58はこの結果を受け取り、認識結果中に県名をあらわす言葉として東京都と千葉県の2つが含まれると判定する。その結果を対話制御部12へ出力する。この判定結果に対し、対話制御部12は辞書選択結合部14に東京都のゴルフ場の辞書と千葉県のゴルフ場の辞書を結合した辞書の作成を指令する。この指令により、辞書選択結合部14は音声認識辞書格納部13から東京都のゴルフ場の辞書と千葉県のゴルフ場の辞書を取り出して結合し音声認識辞書の作成を行う。
【0082】
次いで、対話制御部12は応答音声出力部15に対し、使用者に対してゴルフ場の名称の発声を促すメッセージを出力することを指令する。この指令に対し、応答音声出力部15は応答音声格納部16から「ゴルフ場の名前をお話ください。」というメッセージを選択し、使用者に提示する。このメッセージを聞いた使用者が、ゴルフ場の名前「○○ゴルフ場。」と発声して音声対話装置50に入力することにより、入力された音声は音声認識部11で認識され、認識結果として、「○○ゴルフ場。」が選ばれ、検索対象が確定する。
【0083】
次いで、対話制御部12は応答音声出力部15に対し、確定した検索対象「○○ゴルフ場。」を使用者に提示することを指令する。この指令に対し、応答音声出力部15は応答音声格納部16に格納されている内容と「○○ゴルフ場。」を組み合わせて、「○○ゴルフ場の地図を表示します。」というメッセージを作成し、使用者に提示する。
【0084】
以上の動作により、検索対象の目的地などの地図をナビゲーション装置の表示画面に表示させることができる。
【0085】
このように第5の実施の形態においては、辞書選択結合部14および複数結果判定部58を設けることにより、使用者が例えばゴルフ場の所在する県名を良く知らずに「東京都か千葉県。」と、対話中の質問に対して答えたために次に行うべき指示が確定できない場合でも、東京都のゴルフ場の辞書と千葉県のゴルフ場の辞書を取り出して結合した音声認識辞書を作成し音声認識を行うことによって、音声対話の流れが中断してしまうことなく検索対象を確定することができる。したがって、使用者が正確な答えを知らずに曖昧な応答になってしまう場合でも、対話を中断することなく継続させることができ、目的を達成することができる。
【0086】
次に、図21および図22は本発明の音声対話装置の第6の実施の形態を示す図である。なお、この第6の実施の形態は、上述した第5の実施の形態と略同様に構成されているので、図面を流用して、同様な構成には同一の符号を付して特徴部分を説明する。
【0087】
まず、装置構成を説明する。図21において、音声対話装置60は、音声認識部11と、対話制御部12と、辞書格納部13と、応答音声出力部15と、応答音声格納部16と、複数結果判定部58とを備えるとともに、上述第5の実施の形態における辞書選択結合部14に代えて、上述第2の実施の形態で採用した辞書選択部24を採用しており、また加えて、入力蓄積部61を設けている。
【0088】
ここで、音声認識部11は、使用者が入力した音声を認識するのと同時にその入力音声を音響分析した結果も入力蓄積部61へ出力するようになっており、この入力蓄積部61は、音声認識部11から出力される入力音声またはその入力音声の音響分析結果を蓄積するようになっている。
【0089】
なお、辞書選択部24は、対話制御部12からの指令により辞書格納部13内に格納されている音声認識辞書を1個選択することにより音声認識部11が用いる音声認識辞書を作成する。
【0090】
次に本発明の音声対話装置による処理動作を、図22に示す対話のフロー図を用いて説明する。
【0091】
まず、上述第5の実施の形態と同様に、使用者の指示により音声対話が開始されて、「ご用はなんでしょうか。」というメッセージに対して、使用者が図3に示す検索ジャンルの「施設検索。」を発声し、次いで、「施設の種類をお話ください。」というメッセージに対して、使用者が図4に示す検索ジャンルの「ゴルフ場。」を発声し、次いで、検索ジャンルが「ゴルフ場。」であることから、図9に示すような検索ジャンルの音声認識辞書を作成して「ゴルフ場のある県名をお話ください。」というメッセージを使用者に提示するのに対して、その使用者が、第N番目の対話階層において、ゴルフ場がある県名が曖昧であるために「東京都か千葉県。」と発声して音声対話装置50に入力することにより、入力された音声は音声認識部11で認識され、認識結果として、「東京都か千葉県。」が得られる。
【0092】
そして、複数結果判定部58は音声認識部11による認識結果中に県名を表す言葉として東京都と千葉県の2つが含まれると判定することになり、この判定結果に対し、対話制御部12は、まずは、辞書選択部24に東京都のゴルフ場の辞書の選択作成を指令する。この指令により、辞書選択部24は音声認識辞書格納部13から東京都のゴルフ場の辞書を取り出して第N+1番目の対話階層用の音声認識辞書を作成する。
【0093】
次いで、対話制御部12は応答音声出力部15に対し、使用者に対してゴルフ場の名称の発声を促すメッセージを出力することを指令する。この指令に対し、応答音声出力部15は応答音声格納部16から「ゴルフ場の名前をお話ください。」というメッセージを選択し、使用者に提示する。
【0094】
次いで、対話制御部12は音声認識部11に対し、辞書選択部24が作成した辞書を用いて音声認識を実行することを指令する。先のメッセージを聞いた使用者が、ゴルフ場の名前「○○ゴルフ場。」を発声して音声対話装置50に入力することにより、入力された音声は音声認識部11で認識され、認識結果として「××ゴルフ場。」が得られるのと同時に、使用者が発声した「○○ゴルフ場。」の入力を入力音声の形で、またはその入力音声を音響分析した結果の形で入力蓄積部61へ出力し蓄積させる。
【0095】
次いで、対話制御部12は応答音声出力部15に対し、認識結果である「××ゴルフ場。」を使用者に提示することを指令する。この指令に対し、応答音声出力部15は応答音声格納部16に格納されている内容と「××ゴルフ場。」を組み合わせて、「××ゴルフ場ですか。」というメッセージを作成し、使用者に提示する。
【0096】
次いで、対話制御部12は音声認識部11に対し、辞書選択部24が作成した辞書を用いて音声認識を実行することを指令する。これに対し使用者が、期待する結果ではないため「違う。」と発声して音声対話装置50に入力することにより、入力された音声は音声認識部11で認識され、認識結果として、「違う。」が得られる。
【0097】
次いで、対話制御部12は先の東京都の選択対話が誤っていたため、辞書選択部24に千葉県のゴルフ場の辞書の作成を指令する。この指令により、辞書選択部24は音声認識辞書格納部13から千葉県のゴルフ場の辞書を取り出して音声認識辞書を作成する。
【0098】
次いで、対話制御部12は音声認識部11に対し、辞書選択部24が作成した辞書を用いて、入力蓄積部61から先の入力を取り出して音声認識を実行することを指令することにより、その認識結果として「○○ゴルフ場。」が得られる。
【0099】
次いで、対話制御部12は応答音声出力部15に対し、「○○ゴルフ場。」を使用者に提示することを指令する。この指令に対し、応答音声出力部15は応答音声格納部16に格納されている内容と「○○ゴルフ場。」を組み合わせて、「○○ゴルフ場の地図を表示します。」というメッセージを作成し、使用者に提示する。
【0100】
以上の動作により、検索対象の目的地などの地図をナビゲーション装置の表示画面に表示させることができる。
【0101】
このように第6の実施の形態においては、辞書選択部24、複数結果判定部58および入力蓄積部61を設けることにより、使用者が例えばゴルフ場の所在する県名を良く知らずに「東京都か千葉県。」と、対話中の質問に対して答えたために次に行うべき指示が確定できない場合でも、東京都のゴルフ場の辞書での音声認識結果と千葉県のゴルフ場の辞書での音声認識結果を順次求めて、その認識結果を提示することによって、音声対話の流れが中断してしまうことなく検索対象を確定することができる。したがって、使用者が正確な答えを知らずに曖昧な応答になってしまう場合でも、対話を中断することなく継続させることができ、目的を達成することができる。
【0102】
【発明の効果】
以上説明したように、本発明によれば、音声認識された使用者の音声の内容が次の指示を確定できない内容のときには、対話を継続するのに有効な音声認識辞書を辞書格納手段内から準備するので、続けて、質問音声や応答音声などを出力し対話を継続することができる。したがって、使用者が応答できない場合や曖昧な答えしかできない場合でも、対話を中断することなく継続させて目的を達成することができる、という優れた効果を有する音声対話装置を提供することができる。
【図面の簡単な説明】
【図1】本発明の音声対話装置の第1実施形態の概略全体構成を示す関係ブロック図
【図2】本発明の音声対話装置の第1実施形態による処理動作を説明する対話フロー図
【図3】本発明の音声対話装置の第1実施形態が用いる音声認識辞書を示す概念図
【図4】本発明の音声対話装置の第1実施形態が用いる音声認識辞書を示す概念図
【図5】本発明の音声対話装置の第1実施形態が用いる音声認識辞書を示す概念図
【図6】本発明の音声対話装置の第1実施形態が用いる音声認識辞書を示す概念図
【図7】本発明の音声対話装置の第2実施形態の概略全体構成を示す関係ブロック図
【図8】本発明の音声対話装置の第2実施形態による処理動作を説明する対話フロー図
【図9】本発明の音声対話装置の第2実施形態が用いる音声認識辞書を示す概念図
【図10】本発明の音声対話装置の第2実施形態の他の実施形態を示す処理動作を説明する対話フロー図
【図11】本発明の音声対話装置の第3実施形態の概略全体構成を示す関係ブロック図
【図12】本発明の音声対話装置の第3実施形態による処理動作を説明する対話フロー図
【図13】本発明の音声対話装置の第3実施形態が用いる音声認識辞書を示す概念図
【図14】本発明の音声対話装置の第3実施形態が用いる音声認識辞書を示す概念図
【図15】本発明の音声対話装置の第4実施形態の概略全体構成を示す関係ブロック図
【図16】本発明の音声対話装置の第4実施形態による処理動作を説明する対話フロー図
【図17】本発明の音声対話装置の第4実施形態が用いる音声認識辞書を示す概念図
【図18】本発明の音声対話装置の第4実施形態が用いる音声認識辞書を示す概念図
【図19】本発明の音声対話装置の第5実施形態の概略全体構成を示す関係ブロック図
【図20】本発明の音声対話装置の第5実施形態による処理動作を説明する対話フロー図
【図21】本発明の音声対話装置の第6実施形態の概略全体構成を示す関係ブロック図
【図22】本発明の音声対話装置の第6実施形態による処理動作を説明する対話フロー図
【図23】従来技術による処理動作を説明する対話フロー図
【符号の説明】
10〜60 音声対話装置
11 音声認識部
12 対話制御部
13 音声認識辞書格納部
14 辞書選択結合部
15 応答音声出力部
16 応答音声格納部
17 不明表現語辞書
18 不明表現語判定部
24 辞書選択部
37 曖昧表現語辞書
38 曖昧表現語判定部
39 距離計算部
47 概念辞書テーブル
48 類似概念選択部
58 複数結果判定部
61 入力蓄積部[0001]
TECHNICAL FIELD OF THE INVENTION
The present invention relates to a voice interaction device using a voice recognition technology and a voice synthesis technology.
[0002]
[Prior art]
2. Description of the Related Art In recent years, various devices have been equipped with a voice interaction device that achieves a desired purpose by performing voice recognition and dialogue, such as a navigation device that assists an operation without manual input. It is installed in.
[0003]
As this type of voice interactive device, for example, when mounted on a navigation device, as shown in FIG. 23, it is necessary to continue a dialog with a user to display and set a destination. Can be done.
[0004]
[Problems to be solved by the invention]
However, in such a conventional voice interactive device, for example, as shown in FIG. 23, a search is made for a XX golf course in Chiba using an item search function for setting a destination of a navigation device. In such a case, if the user does not know that the XX golf course is located in Chiba Prefecture, the conversation cannot be continued, and the search becomes impossible.
[0005]
In other words, if the user does not have an answer to the question asked by the dialogue device, the dialogue will be interrupted. There was a problem that the user's purpose could not be achieved because the dictionary could not be selected.
[0006]
SUMMARY OF THE INVENTION The present invention has been made to solve such a problem, and a voice dialogue apparatus capable of continuing a dialogue and achieving an object even when a user cannot correctly answer a question asked by the apparatus side. To provide.
[0007]
[Means for Solving the Problems]
The voice interaction device of the present invention In a voice interaction device that performs a dialogue in response to a voice uttered by a user, input Said that Voice recognition means for recognizing voice; Said Dictionary storage means for storing a speech recognition dictionary for each level of dialogue; Said Dictionary preparation means for preparing a dictionary according to the dialogue; For the user Prompt vocalization response Response voice output means for outputting voice; A next response voice is created using the input voice, and the next response voice is generated using the past response voice or the previously input voice when the content indicates that the voice is unknown. To create The voice recognition dictionary is prepared by the dictionary preparation means, and the response voice output means The response And a dialogue control unit for outputting a voice.
[0008]
With such a configuration, when an instruction is made in accordance with the user's speech (voice) recognized by the speech, a speech recognition dictionary is prepared from the dictionary storage means, and a voice prompting the user to speak, In other words, while the dialogue is continued by outputting a question voice or a response voice, etc., if the voice content of the voice-recognized user cannot determine the next instruction, a speech recognition dictionary effective for continuing the dialogue. Is prepared from the dictionary storage means, and then the dialogue is continued by outputting a question voice and a response voice. Therefore, even when the user cannot respond or can only give an ambiguous answer, the dialog can be continued without interruption and the object can be achieved.
[0009]
The dictionary preparing means of the voice dialogue apparatus of the present invention prepares a dictionary necessary for dialogue by selectively combining the voice recognition dictionaries in the dictionary storage means, and the dialogue control means is recognized by the voice recognition means. Was Of the content indicating that the voice is unknown In some cases, the speech recognition dictionary in the dictionary storage unit of the hierarchy to which the next transition is likely to be made is selectively combined and prepared with the dictionary preparation unit.
[0010]
With such a configuration, when the next instruction cannot be determined in a meaning that cannot be answered because the content of the voice of the user whose voice has been recognized is unknown, all of the possibilities that may be used when the dialogue is continued. The voice recognition dictionary is prepared by being selected from the dictionary storage means and combined, and then the dialogue is continued by outputting a question voice, a response voice, and the like. Therefore, even when the user cannot respond because he does not know the answer, the dialog can be continued without interruption, and the object can be achieved.
[0011]
The dictionary preparing means of the voice dialogue apparatus of the present invention selects the voice recognition dictionary in the dictionary storage means to prepare a dictionary necessary for a dialogue, and the dialogue control means is recognized by the voice recognition means. Of the content indicating that the voice is unknown In some cases, a voice for asking another question is output to the response voice output unit, and the dictionary preparation unit is configured to select and prepare the voice recognition dictionary required for a conversation from the dictionary storage unit.
[0012]
According to such a configuration, when the next instruction cannot be determined because the content of the voice of the user whose voice has been recognized cannot be answered because it is unknown, another question is asked, and the voice recognition dictionary corresponding to the answer is issued. By being prepared by being selected from the dictionary storage means, a question voice, a response voice, and the like are output, and the dialogue is continued. Therefore, even when the user cannot respond because he does not know the answer, the dialog can be continued without interruption, and the object can be achieved.
[0013]
The dictionary preparing means of the voice dialogue apparatus of the present invention prepares a dictionary necessary for dialogue by selectively combining the voice recognition dictionaries in the dictionary storage means, and the dialogue control means is recognized by the voice recognition means. When the voice that has been heard has a content meaning unknown for the first time, another voice is output to the response voice output means. Answer voice To cause the dictionary preparation means to select and prepare the speech recognition dictionary required for a conversation from the dictionary storage means, and to be recognized by the speech recognition means. When the user's voice is unknown Is continued, the speech recognition dictionaries in the dictionary storage means of all the hierarchies which may transition next are selectively combined with the dictionary preparation means to prepare them.
[0014]
With such a configuration, when the voice of the user who cannot determine the next instruction for the first time is recognized because the content is unknown and cannot be answered, another question is asked and a voice recognition dictionary corresponding to the answer is given. Is prepared by being selected from the dictionary storage means, and the dialogue is continued by outputting question voices and response voices. However, since the content of the user's voice is unknown even in the next voice recognition, If the instruction cannot be confirmed, all the speech recognition dictionaries that may be used when the dialogue is continued are prepared by being selected from the dictionary storage means and combined, and then the question speech and response The dialogue is continued by outputting a voice or the like. Therefore, even when the user cannot respond because he does not know the answer, the dialog can be continued without interruption, and the object can be achieved.
[0015]
The dictionary preparing means of the voice dialogue apparatus of the present invention prepares a dictionary necessary for dialogue by selectively combining the voice recognition dictionaries in the dictionary storage means, and the dialogue control means is recognized by the voice recognition means. When the content indicates that the sound is ambiguous, The voice recognition dictionary is provided to the dictionary preparing means so as to create a next response voice using the past response voice or the voice input in the past. It has a configuration to prepare.
[0016]
With such a configuration, when the content of the voice of the user whose speech has been recognized cannot be determined with the meaning of the ambiguous answer, the corresponding speech recognition dictionary is removed when the words representing the ambiguity are removed. In addition, a speech recognition dictionary that is conceptually similar is prepared by being selected from the dictionary storage means and combined, and then the dialogue is continued by outputting a question voice, a response voice, and the like. Therefore, even when the user does not know the correct answer, the dialog can be continued without interruption, and the object can be achieved.
[0017]
The dictionary preparing means of the voice dialogue apparatus of the present invention prepares a dictionary necessary for dialogue by selectively combining the voice recognition dictionaries in the dictionary storage means, and the dialogue control means is recognized by the voice recognition means. When the voice includes a plurality of contents, a plurality of the speech recognition dictionaries in the dictionary storage means corresponding to the plurality of contents are selectively coupled to the dictionary preparation means to prepare.
[0018]
With such a configuration, when the next instruction cannot be determined with the meaning of the user whose voice has been recognized and includes a plurality of contents, the voice recognition dictionary corresponding to each content is selected from the dictionary storage means and combined. Then, the dialogue is continued by outputting a question voice, a response voice, and the like. Therefore, even when the user does not know the correct answer, the dialog can be continued without interruption, and the object can be achieved.
[0019]
The dictionary preparing means of the voice dialogue apparatus of the present invention selects one of the voice recognition dictionaries in the dictionary storage means to prepare a dictionary necessary for a dialogue, and the dialogue control means recognizes the speech by the voice recognition means. When the input speech includes a plurality of contents, the dictionary preparation unit selects and prepares the speech recognition dictionary in the dictionary storage unit corresponding to one content included in the contents, and asks the response speech output unit to answer the question. By confirming the correctness of the dialogue with the voice recognized by the voice recognition unit, if the voice is recognized by the voice recognition unit, and if it is wrong, in the dictionary storage unit corresponding to other contents included in the voice The voice recognition dictionary is selected and prepared by the dictionary preparation means.
[0020]
With such a configuration, when the voice of the user whose voice has been recognized cannot be determined with the semantic content including a plurality of contents, a voice recognition dictionary corresponding to one content is first selected and prepared from the dictionary storage means. Then, when another question is asked, it is confirmed whether or not one of the contents is satisfactory. If it is incorrect, a speech recognition dictionary corresponding to the other content is selected and prepared from the dictionary storage means. Then, the dialogue is continued by outputting a question voice, a response voice, and the like. Therefore, even when the user does not know the correct answer, the dialog can be continued without interruption, and the object can be achieved.
[0021]
BEST MODE FOR CARRYING OUT THE INVENTION
Hereinafter, the present invention will be described with reference to the drawings. FIG. 1 to FIG. 6 are views showing a first embodiment of the voice interaction apparatus of the present invention.
[0022]
First, the device configuration will be described. In FIG. 1, a
[0023]
Next, the processing operation of the speech dialogue apparatus of the present invention will be described with reference to the flowchart of the dialogue shown in FIG.
[0024]
First, when a voice dialogue is started by an instruction of a user (a user of the navigation device), the
[0025]
Next, the
[0026]
Next, the
[0027]
Next, the
[0028]
Next, the
[0029]
Next, the
[0030]
Next, the
[0031]
Next, the
[0032]
Next, the
[0033]
Next, the
[0034]
With the above operation, a map such as a destination to be searched can be displayed on the display screen of the navigation device.
[0035]
As described above, in the first embodiment, by providing the dictionary selecting / combining
[0036]
Next, FIGS. 7 to 9 are diagrams showing a second embodiment of the voice interaction apparatus of the present invention. Note that the second embodiment is configured substantially in the same manner as the first embodiment described above. explain.
[0037]
First, the device configuration will be described. In FIG. 7, the
[0038]
Next, the processing operation of the speech dialogue apparatus of the present invention will be described with reference to the flowchart of the dialogue shown in FIG.
[0039]
First, in the same manner as in the first embodiment described above, a voice dialogue is started by a user's instruction, and the user responds to the message "What is your use?" When "Facility search." Is uttered and this "Facility search." Is selected as a command, a voice recognition dictionary containing words indicating a search genre and words such as "I do not understand." Once created, a message "Please tell us the type of facility." Is presented to the user.
[0040]
Then, when the user who hears the message "Please tell us the type of facility" does not understand the word indicating the genre to be searched, he utters "I do not understand." Thus, the input voice is recognized by the
[0041]
Next, the
[0042]
Next, the
[0043]
Next, the
[0044]
Next, the
[0045]
With the above operation, a map such as a destination to be searched can be displayed on the display screen of the navigation device.
[0046]
As described above, in the second embodiment, by providing the
[0047]
As another mode of the second embodiment, as shown in FIG. 10, in response to a message "Please tell us the type of facility." Is repeatedly input in response to the message "", a dictionary composed of facilities of all genres is selected in the
[0048]
Next, FIG. 11 to FIG. 14 are views showing a third embodiment of the voice interaction apparatus of the present invention. Since the third embodiment is configured substantially in the same manner as the above-described first embodiment, the same reference numerals are given to the same configurations using the drawings, and the characteristic portions will be described. explain.
[0049]
First, the device configuration will be described. In FIG. 11, the
[0050]
In the vague
[0051]
The
[0052]
Next, the processing operation of the speech dialogue apparatus of the present invention will be described with reference to the flowchart of the dialogue shown in FIG.
[0053]
First, in the same manner as in the first embodiment described above, a voice dialogue is started by a user's instruction, and the user responds to the message "What is your use?" While saying "Facility search.", A speech recognition dictionary of a search genre as shown in FIG. 4 is created, and a message "Please tell us the type of facility" is presented to the user. When the user utters “Golf course.” And inputs it to the
[0054]
Then, in order to narrow down the location of the golf course, the
[0055]
Next, the
[0056]
Next, the
[0057]
Next, the
[0058]
Next, the
[0059]
With the above operation, a map such as a destination to be searched can be displayed on the display screen of the navigation device.
[0060]
As described above, in the third embodiment, by providing the dictionary selecting / combining
[0061]
Next, FIG. 15 to FIG. 18 are views showing a fourth embodiment of the voice interaction apparatus of the present invention. Since the fourth embodiment is configured substantially in the same manner as the above-described third embodiment, the same reference numerals are given to the same configurations using the drawings, and the characteristic portions will be described. explain.
[0062]
First, the device configuration will be described. In FIG. 15, the
[0063]
The concept dictionary table 47 is set in advance by associating similar concepts as shown in FIG. 17, and the similar
[0064]
Next, the processing operation of the speech dialogue apparatus of the present invention will be described with reference to the flowchart of the dialogue shown in FIG.
[0065]
First, in the same manner as in the third embodiment described above, a voice dialogue is started by a user's instruction, and the user responds to the message "What is your need?""Facilitysearch." Is spoken, and this "facility search." Is selected as a command.
[0066]
Then, when this "facility search." Is instructed, the
[0067]
Next, the
[0068]
Next, the
[0069]
Next, the
[0070]
Next, the
[0071]
Next, the
[0072]
Next, the
[0073]
With the above operation, a map such as a destination to be searched can be displayed on the display screen of the navigation device.
[0074]
As described above, in the fourth embodiment, the provision of the dictionary selection /
[0075]
Next, FIG. 19 and FIG. 20 are views showing a fifth embodiment of the voice interaction apparatus of the present invention. Since the fifth embodiment is configured substantially in the same manner as the first embodiment described above, the same components are denoted by the same reference numerals using the drawings, and the characteristic portions will be described. explain.
[0076]
First, the device configuration will be described. In FIG. 19, the
[0077]
Next, the processing operation of the voice dialogue apparatus of the present invention will be described with reference to the flowchart of the dialogue shown in FIG. Here, the purpose is to search for the XX golf course in Chiba Prefecture, but the memory of the location of the XX golf course is ambiguous and the user recognizes that it is in Tokyo or Chiba Prefecture. An example will be described.
[0078]
First, in the same manner as in the first embodiment described above, a voice dialogue is started by a user's instruction, and the user responds to the message "What is your use?" While saying "Facility search.", A speech recognition dictionary of a search genre as shown in FIG. 4 is created, and a message "Please tell us the type of facility" is presented to the user. When the user utters “Golf course” and inputs it to the
[0079]
Then, the
[0080]
Next, the
[0081]
Next, the
[0082]
Next, the
[0083]
Next, the
[0084]
With the above operation, a map such as a destination to be searched can be displayed on the display screen of the navigation device.
[0085]
As described above, in the fifth embodiment, by providing the dictionary selecting / combining
[0086]
Next, FIGS. 21 and 22 are views showing a sixth embodiment of the voice interaction apparatus of the present invention. Since the sixth embodiment is configured substantially in the same manner as the above-described fifth embodiment, the same reference numerals are given to the same configurations using the drawings, and the characteristic portions will be described. explain.
[0087]
First, the device configuration will be described. 21, the
[0088]
Here, the
[0089]
The
[0090]
Next, the processing operation of the speech dialogue apparatus of the present invention will be described with reference to the flowchart of the dialogue shown in FIG.
[0091]
First, in the same manner as in the fifth embodiment described above, a voice dialogue is started by a user's instruction, and in response to a message "What is your need?" The user utters "Facility search.", And then utters "Golf course" in the search genre shown in FIG. 4 in response to the message "Please tell us the type of facility." Since it is "golf course.", A speech recognition dictionary of a search genre as shown in FIG. 9 is created and a message "Please speak the name of the prefecture where the golf course is located" is presented to the user. , The user , In the Nth conversation hierarchy, Since the name of the prefecture where the golf course is located is ambiguous, by saying "Tokyo or Chiba Prefecture" and inputting it to the
[0092]
Then, the multiple
[0093]
Next, the
[0094]
Next, the
[0095]
Next, the
[0096]
Next, the
[0097]
Next, the
[0098]
Next, the
[0099]
Next, the
[0100]
With the above operation, a map such as a destination to be searched can be displayed on the display screen of the navigation device.
[0101]
As described above, in the sixth embodiment, by providing the
[0102]
【The invention's effect】
As described above, according to the present invention, when the content of the voice of the user whose voice has been recognized is a content in which the next instruction cannot be determined, a voice recognition dictionary effective for continuing the conversation is stored in the dictionary storage unit. Since the preparation is made, the dialogue can be continued by outputting the question voice and the response voice. Therefore, it is possible to provide a speech dialogue device having an excellent effect that a dialogue can be continued without interruption even if a user cannot respond or only an ambiguous answer can be achieved, and an object can be achieved.
[Brief description of the drawings]
FIG. 1 is a related block diagram illustrating a schematic overall configuration of a first embodiment of a voice interaction device according to the present invention;
FIG. 2 is a dialog flow diagram illustrating a processing operation according to the first embodiment of the voice interaction device of the present invention;
FIG. 3 is a conceptual diagram showing a speech recognition dictionary used by the first embodiment of the speech dialogue device of the present invention.
FIG. 4 is a conceptual diagram showing a speech recognition dictionary used by the first embodiment of the speech dialogue device of the present invention.
FIG. 5 is a conceptual diagram showing a speech recognition dictionary used by the first embodiment of the speech dialogue device of the present invention.
FIG. 6 is a conceptual diagram showing a speech recognition dictionary used by the first embodiment of the speech dialogue device of the present invention.
FIG. 7 is a related block diagram showing a schematic overall configuration of a second embodiment of the voice interaction device of the present invention.
FIG. 8 is a dialog flow diagram illustrating a processing operation according to a second embodiment of the voice interaction device of the present invention.
FIG. 9 is a conceptual diagram showing a speech recognition dictionary used by a second embodiment of the speech dialogue device of the present invention.
FIG. 10 is a dialog flow chart for explaining a processing operation showing another embodiment of the second embodiment of the voice dialog device of the present invention;
FIG. 11 is a related block diagram showing a schematic overall configuration of a third embodiment of the voice interaction device of the present invention.
FIG. 12 is a dialog flow diagram illustrating a processing operation according to a third embodiment of the voice dialog device of the present invention;
FIG. 13 is a conceptual diagram showing a speech recognition dictionary used by a third embodiment of the speech dialogue device of the present invention.
FIG. 14 is a conceptual diagram showing a speech recognition dictionary used by a third embodiment of the speech dialogue device of the present invention.
FIG. 15 is a related block diagram illustrating a schematic overall configuration of a fourth embodiment of the voice interaction device of the present invention.
FIG. 16 is a dialog flow diagram illustrating a processing operation according to a fourth embodiment of the voice dialog device of the present invention;
FIG. 17 is a conceptual diagram showing a speech recognition dictionary used in a fourth embodiment of the speech dialogue device of the present invention.
FIG. 18 is a conceptual diagram showing a speech recognition dictionary used in a fourth embodiment of the speech dialogue device of the present invention.
FIG. 19 is a related block diagram illustrating a schematic overall configuration of a fifth embodiment of the voice interaction device of the present invention.
FIG. 20 is a dialog flow chart for explaining the processing operation of the voice interaction device according to the fifth embodiment of the present invention;
FIG. 21 is a related block diagram illustrating a schematic overall configuration of a sixth embodiment of the voice interaction device of the present invention.
FIG. 22 is a dialog flowchart for explaining a processing operation according to a sixth embodiment of the voice dialog device of the present invention;
FIG. 23 is a dialog flow diagram for explaining a processing operation according to the related art.
[Explanation of symbols]
10-60 voice dialogue device
11 Voice Recognition Unit
12 Dialogue control unit
13 Voice recognition dictionary storage
14 Dictionary selection unit
15 Response voice output unit
16 Response voice storage
17 Unknown expression dictionary
18 Unknown expression word judgment unit
24 Dictionary Selector
37 Ambiguous Expression Word Dictionary
38 Ambiguous expression word judgment unit
39 Distance calculator
47 Concept Dictionary Table
48 Similarity concept selector
58 Multiple Result Determination Unit
61 Input storage unit
Claims (2)
発声を使用者に促すための応答音声を出力する応答音声出力手段と、
対話階層毎に区別され階層間で関連性を有する音声認識辞書を格納する辞書格納手段と、
前記辞書格納手段に格納された音声認識辞書のうち対話に用いられる音声認識辞書を準備する辞書準備手段と、
第N番目の対話階層において前記音声認識手段によって認識された言葉が曖昧表現語と曖昧表現語ではない他の言葉との組み合わせである場合に、第N+1番目の対話階層で用いる音声認識辞書として前記他の言葉およびこの他の言葉と所定の関係にある言葉に対応する音声認識辞書を準備するように前記音声認識辞書を制御するとともに、第N+1番目の対話階層に移行するための応答音声を出力するように前記応答音声出力手段を制御する対話制御手段とを備えることを特徴とする音声対話装置。 Voice recognition means for recognizing words corresponding to the utterance,
Response voice output means for outputting a response voice for urging the user to utter;
Dictionary storage means for storing a speech recognition dictionary that is distinguished for each dialog hierarchy and has relevance between the hierarchies;
Dictionary preparation means for preparing a speech recognition dictionary used for a dialogue among the speech recognition dictionaries stored in the dictionary storage means;
When the word recognized by the speech recognition means in the Nth conversation hierarchy is a combination of an ambiguous expression word and another word that is not an ambiguous expression word, the speech recognition dictionary used in the (N + 1) th interaction hierarchy is The speech recognition dictionary is controlled to prepare a speech recognition dictionary corresponding to another word and a word having a predetermined relationship with the other word, and a response voice for shifting to the (N + 1) th conversation hierarchy is output. And a dialogue control means for controlling the response voice output means .
発声を使用者に促すための応答音声を出力する応答音声出力手段と、Response voice output means for outputting a response voice for urging the user to utter;
対話階層毎に区別され階層間で関連性を有する音声認識辞書を格納する辞書格納手段と、Dictionary storage means for storing a speech recognition dictionary that is distinguished for each dialog hierarchy and has relevance between the hierarchies;
前記辞書格納手段に格納された音声認識辞書のうち対話に用いられる音声認識辞書を準備する辞書準備手段と、Dictionary preparation means for preparing a speech recognition dictionary used for conversation among speech recognition dictionaries stored in the dictionary storage means,
第N番目の対話階層において前記音声認識手段によって認識された言葉が複数存在する場合に、第N+1番目の対話階層に移行するための応答音声を出力するように前記応答音声出力手段を制御するとともに、第N+1番目の対話階層で用いられる音声認識辞書として前記複数の言葉のうち1つの言葉に対応する音声認識辞書を準備し、前記音声認識手段が準備された音声認識辞書を用いて音声認識に失敗すると、他の言葉に対応する音声認識辞書を新たに準備するように前記辞書準備手段を制御する対話制御手段とを備えることを特徴とする音声対話装置。When there are a plurality of words recognized by the voice recognition means in the Nth conversation hierarchy, the response speech output means is controlled to output a response speech for shifting to the (N + 1) th conversation hierarchy. Preparing a voice recognition dictionary corresponding to one of the plurality of words as a voice recognition dictionary used in the (N + 1) th conversation hierarchy, and performing voice recognition using the prepared voice recognition dictionary by the voice recognition means. A dialogue control unit for controlling the dictionary preparation unit so as to newly prepare a speech recognition dictionary corresponding to another word when the operation fails.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2001284377A JP3576511B2 (en) | 2001-09-19 | 2001-09-19 | Voice interaction device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2001284377A JP3576511B2 (en) | 2001-09-19 | 2001-09-19 | Voice interaction device |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2003091297A JP2003091297A (en) | 2003-03-28 |
JP3576511B2 true JP3576511B2 (en) | 2004-10-13 |
Family
ID=19107709
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2001284377A Expired - Lifetime JP3576511B2 (en) | 2001-09-19 | 2001-09-19 | Voice interaction device |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP3576511B2 (en) |
Families Citing this family (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2007199315A (en) * | 2006-01-25 | 2007-08-09 | Ntt Software Corp | Content providing apparatus |
DE112007002665B4 (en) | 2006-12-15 | 2017-12-28 | Mitsubishi Electric Corp. | Voice recognition system |
JP2009036999A (en) * | 2007-08-01 | 2009-02-19 | Infocom Corp | Interactive method by computer, interactive system, computer program, and computer-readable storage medium |
JP2009036998A (en) * | 2007-08-01 | 2009-02-19 | Infocom Corp | Interactive method by computer, interactive system, computer program, and computer-readable storage medium |
Family Cites Families (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US4763277A (en) * | 1986-01-17 | 1988-08-09 | International Business Machines Corporation | Method for obtaining information in an expert system |
JPH08255150A (en) * | 1995-03-17 | 1996-10-01 | Toshiba Corp | Information public offering device and multimodal information input/output system |
JP3700266B2 (en) * | 1996-07-18 | 2005-09-28 | 株式会社日立製作所 | Spoken dialogue control method and spoken dialogue system |
JP3186655B2 (en) * | 1996-07-31 | 2001-07-11 | アイシン・エィ・ダブリュ株式会社 | Vehicle navigation device and storage medium |
JP2000331002A (en) * | 1999-05-14 | 2000-11-30 | Sony Corp | Retrieval device, retrieval method, and recording medium recording retrieval control program |
JP4642953B2 (en) * | 1999-09-09 | 2011-03-02 | クラリオン株式会社 | Voice search device and voice recognition navigation device |
JP4283984B2 (en) * | 2000-10-12 | 2009-06-24 | パイオニア株式会社 | Speech recognition apparatus and method |
JP2002169828A (en) * | 2000-11-30 | 2002-06-14 | Mitsubishi Electric Corp | Navigation device for moving body |
JP2002267472A (en) * | 2001-03-07 | 2002-09-18 | Kenwood Corp | Navigation system and method and program for searching guiding route |
JP2003067516A (en) * | 2001-08-29 | 2003-03-07 | Yasushi Tsuneyama | Living information providing method |
-
2001
- 2001-09-19 JP JP2001284377A patent/JP3576511B2/en not_active Expired - Lifetime
Also Published As
Publication number | Publication date |
---|---|
JP2003091297A (en) | 2003-03-28 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US6996528B2 (en) | Method for efficient, safe and reliable data entry by voice under adverse conditions | |
US6321196B1 (en) | Phonetic spelling for speech recognition | |
JP4270611B2 (en) | Input system | |
US6968311B2 (en) | User interface for telematics systems | |
US10331784B2 (en) | System and method of disambiguating natural language processing requests | |
US5797116A (en) | Method and apparatus for recognizing previously unrecognized speech by requesting a predicted-category-related domain-dictionary-linking word | |
JP3278222B2 (en) | Information processing method and apparatus | |
JPWO2015151157A1 (en) | Intent understanding apparatus and method | |
JP2000194386A (en) | Voice recognizing and responsing device | |
JP2000315096A (en) | Man-machine system provided with voice recognition device | |
WO2006040969A1 (en) | Dialog support device | |
US20130166290A1 (en) | Voice recognition apparatus | |
US20060020471A1 (en) | Method and apparatus for robustly locating user barge-ins in voice-activated command systems | |
JP2000504510A (en) | Database access | |
JP2002123290A (en) | Speech recognition device and speech recognition method | |
JP4064748B2 (en) | VOICE GENERATION DEVICE, VOICE GENERATION METHOD, AND NAVIGATION DEVICE | |
JP4967519B2 (en) | Voice recognition device | |
JP3576511B2 (en) | Voice interaction device | |
Edlund et al. | Higgins-a spoken dialogue system for investigating error handling techniques. | |
KR20080097619A (en) | Learning system and method by interactive conversation | |
JP2010128144A (en) | Speech recognition device and program | |
JPH09114493A (en) | Interaction controller | |
JP3340163B2 (en) | Voice recognition device | |
KR20130128172A (en) | Mobile terminal and inputting keying method for the disabled | |
JP3663012B2 (en) | Voice input device |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20031222 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20040127 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20040329 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20040706 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20040707 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 3576511 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20070716 Year of fee payment: 3 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20080716 Year of fee payment: 4 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20090716 Year of fee payment: 5 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20090716 Year of fee payment: 5 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20100716 Year of fee payment: 6 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20110716 Year of fee payment: 7 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20110716 Year of fee payment: 7 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20120716 Year of fee payment: 8 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20120716 Year of fee payment: 8 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20130716 Year of fee payment: 9 |
|
EXPY | Cancellation because of completion of term |