JP2002287793A - Command processing device, command processing method, and command processing program - Google Patents
Command processing device, command processing method, and command processing programInfo
- Publication number
- JP2002287793A JP2002287793A JP2001093238A JP2001093238A JP2002287793A JP 2002287793 A JP2002287793 A JP 2002287793A JP 2001093238 A JP2001093238 A JP 2001093238A JP 2001093238 A JP2001093238 A JP 2001093238A JP 2002287793 A JP2002287793 A JP 2002287793A
- Authority
- JP
- Japan
- Prior art keywords
- command
- information
- sentence
- user
- execution
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Landscapes
- Machine Translation (AREA)
Abstract
(57)【要約】
【課題】 ユーザの要求を的確に把握してユーザの入力
負担を小さくし、ユーザが装置に対して抱いている心理
的距離を考慮した対話が可能なコマンド処理装置、コマ
ンド処理方法、及びコマンド処理プログラムを提供する
こと。
【解決手段】 ユーザの発話要求に対して、ユーザの意
図の確からしさを数値化した確信度、及びユーザが当該
コマンド処理装置に抱いている心理的な距離感を数値化
した心理的距離感を用いて応答文の内容や表現方法を変
化させる。更に、確信度が大きい場合は、ユーザに対し
てコマンド実行前の確認を行わず、コマンドを実行した
後に事後報告することにより、ユーザがコマンド処理装
置を操作する際のストレスを低減する。
(57) [Summary] [PROBLEMS] A command processing device and a command capable of accurately grasping a user's request, reducing a user's input burden, and enabling a conversation considering a psychological distance held by the user with respect to the device. To provide a processing method and a command processing program. SOLUTION: In response to a user's utterance request, a certainty factor that quantifies the likelihood of the intention of the user and a psychological distance sensation that quantifies the psychological distance that the user has in the command processing device. To change the content and expression of the response sentence. Further, when the certainty factor is high, the user is not confirmed before executing the command, but is notified after the command is executed, thereby reducing stress when the user operates the command processing device.
Description
【0001】[0001]
【発明の属する技術分野】本発明は、コマンド処理装
置、コマンド処理方法、及びコマンド処理プログラムに
関し、例えば、音声認識によってユーザから取得したコ
マンドを処理するものに関する。BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a command processing device, a command processing method, and a command processing program, for example, to processing a command obtained from a user by voice recognition.
【0002】[0002]
【従来の技術】近年の急激な音声認識技術の発展によ
り、ユーザが日常使用する言葉を用いて入力した自然言
語の内容(コマンド要求発話と呼ばれる)を解釈して動
作する電子機器が使用されるようになってきた。例え
ば、ユーザが「5チャンネルが見たい」と発話すること
により、チャンネルを5に合わせるテレビや、ユーザの
音声により文書の入力や編集ができるワープロなどがあ
る。2. Description of the Related Art With the rapid development of speech recognition technology in recent years, electronic devices that operate by interpreting the contents of natural language (called command request utterances) input using words that a user uses everyday are used. It has become. For example, there are a television that adjusts the channel to 5 when the user speaks “I want to see 5 channels”, and a word processor that can input and edit a document by the user's voice.
【0003】ユーザが、音声による自然言語で入力する
コマンドを解析して解釈するコマンド処理装置に、例え
ば、IIF(Intelligent Interfa
ce)解析エンジンがある。図10は、従来のIIF解
析エンジンの構成の一例を示した図である。テレビな
ど、被操作電子装置に設置されたマイクを介してユーザ
から入力された入力文201は言語処理解析コンポーネ
ント202に送られる。言語処理解析コンポーネント2
02は、入力文を文節に区分して、入力文の文構造情報
を取得する。For example, a command processing device that analyzes and interprets a command input by a user in a natural language by voice includes, for example, an IIF (Intelligent Interface).
ce) There is an analysis engine. FIG. 10 is a diagram showing an example of the configuration of a conventional IIF analysis engine. An input sentence 201 input by a user via a microphone installed on an operated electronic device such as a television is sent to a language processing analysis component 202. Language processing analysis component 2
A step 02 divides the input sentence into clauses and acquires sentence structure information of the input sentence.
【0004】事例照合処理コンポーネント203は、言
語処理解析コンポーネント202から取得した文構造情
報を事例辞典204に登録されている事例と比較し、ユ
ーザのコマンド要求発話から実行コマンド情報205を
取得し、出力する。実行コマンド情報205により、被
操作電子装置において、例えばテレビのチャンネルを合
わせたり、電燈を消灯したり、又は、ワープロで作成中
の文書に下線を付けたりなど、コマンドの実行が行われ
る。[0004] The case matching processing component 203 compares the sentence structure information obtained from the language processing analysis component 202 with the case registered in the case dictionary 204, obtains execution command information 205 from the user's command request utterance, and outputs it. I do. The execution command information 205 causes the operated electronic device to execute a command, such as tuning a television channel, turning off a light, or underlining a document being created by a word processor.
【0005】このように、ユーザと対話するコマンド処
理装置として、例えば、特開平1−258036号広報
の「知識情報処理システム」がある。この知識情報処理
システムは、ユーザの入力文に対してマッチング処理を
行い、検索されたルールとその確信度を表示する。そし
て、ユーザは確信度を変更することができ、その変更さ
れた確信度情報を反映させることにより、次回以降の推
論でより望んだ結果を取得することができるようにする
ものである。[0005] As a command processing apparatus for interacting with a user, there is, for example, a "knowledge information processing system" disclosed in Japanese Patent Laid-Open Publication No. 1-258036. This knowledge information processing system performs a matching process on a user's input sentence, and displays the searched rule and its certainty factor. Then, the user can change the certainty factor, and by reflecting the changed certainty factor information, it is possible to obtain a more desired result in the next and subsequent inferences.
【0006】また、他の例として特開平9−23727
8号広報の「綿密対話システム」がある。このシステム
は、ユーザとエージェント(コマンド処理装置)との対
話が、予め用意したシナリオから脱してうまくかみ合わ
ない場合に、対話を最初からやり直すのではなく、シナ
リオを差し替えることによって対処するシステムであ
る。Another example is disclosed in Japanese Patent Application Laid-Open No. 9-23727.
There is an "in-depth dialogue system" for public relations No. 8. This system is a system for coping with a situation in which a dialog between a user and an agent (command processing device) does not engage with a scenario prepared in advance by replacing the scenario from the beginning and replacing the scenario.
【0007】[0007]
【発明が解決しようとする課題】しかし、従来の自然言
語入力によるコマンド処理装置は、例えば、事後報告し
ても良いようなユーザの確信度が高いコマンド要求に対
しても、実行前にユーザに当該コマンドを実行しても良
いかどうか確認する場合があり、ユーザに過剰なストレ
スを与える場合があった。例えば、ワープロで背景の色
を青にする場合、ユーザの「背景の色を青にする」とい
う明確な要求に対し、「”背景の色を青にする”を実行
します。よろしいですか?」というようにコマンド実行
前の確認が行われていた。However, the conventional command processing apparatus based on natural language input requires the user to execute a command request with a high degree of certainty, which may be reported afterwards, before the execution. In some cases, it may be checked whether or not the command can be executed, and the user may be stressed excessively. For example, if you want the background color to be blue in a word processor, execute "" Background color blue "" in response to a user's explicit request for "Background color blue". The confirmation before executing the command was performed.
【0008】また、解析結果の確信度が低い漠然とした
ユーザからの要求に対し、対話による具体的なコマンド
提案を行っていなかった。例えば、「目立たせたい」と
いうユーザからの漠然とした要求に対し、ダイアログな
どを並べて候補を表示するだけで、具体的に候補の中か
らどれにするかといった具体的な提案をユーザに対して
行っていなかった。Further, in response to a vague user request with low confidence in the analysis result, no specific command proposal has been made through dialogue. For example, in response to a vague request from a user to “make it stand out,” simply displaying a list of dialogues and displaying candidates, and making specific proposals to the user as to which of the candidates should be specifically selected I didn't.
【0009】更に、ユーザが装置を繰り返し同じように
使用しても、装置に対してユーザが具体的な要求を行わ
ないと、ユーザの意図が理解されなかった。例えば、ユ
ーザが「いつものようにやって」とか「あれして」など
と要求しても装置は動作することができず、ワープロに
対しては「下線を付けてくれ」とか、テレビに対しては
「チャンネルを1にしてくれ」などと、具体的な要求を
行わなくてはならなかった。Furthermore, even if the user repeatedly uses the device in the same manner, the intention of the user cannot be understood unless the user makes a specific request to the device. For example, if the user requests "do as usual" or "is there", the device cannot operate, and the word processor should be "underlined" or the television should be I had to make a specific request, such as "set channel 1".
【0010】加えて、ユーザが装置に対してどのような
立場で接したいのか汲み取ることができず、どのような
場面においても「〜します。よろしいですか。」という
固定的な表現でコマンド確認などを行うため、対話が単
調で機械的になっていた。[0010] In addition, the user cannot determine the position in which the user wants to contact the device, and in any case, confirms the command with a fixed expression such as "Is it OK?" To do so, the dialogue was monotonous and mechanical.
【0011】そこで、本発明の目的は、ユーザの要求を
的確に把握してユーザの入力負担を小さくし、ユーザが
装置に対して抱いている心理的距離を考慮した対話が可
能なコマンド処理装置、コマンド処理方法、及びコマン
ド処理プログラムを提供することである。SUMMARY OF THE INVENTION An object of the present invention is to provide a command processing device capable of accurately grasping a user's request, reducing the input load on the user, and enabling a dialog taking into account the psychological distance the user has with the device. , A command processing method, and a command processing program.
【0012】[0012]
【課題を解決するための手段】本発明は、前記目的を達
成するために、ユーザから自然言語にて入力された入力
文を取得する入力文取得手段と、前記入力文取得手段に
て取得された入力文からコマンド情報を取得するコマン
ド情報取得手段と、前記コマンド情報取得手段にて取得
されたコマンド情報に実行すべき実行コマンドを特定す
るのに必要な情報が不足している場合に、当該不足して
いる情報を推論する不足情報推論手段と、前記コマンド
情報が前記実行コマンドを特定するのに必要な情報を備
えている場合は、前記コマンド情報から前記コマンドを
特定し、前記コマンド情報に前記実行コマンドを特定す
るのに必要な情報が不足している場合は、前記コマンド
情報と前記不足情報推論手段にて推論された情報を用い
て前記実行コマンドを特定する実行コマンド特定手段
と、前記実行コマンド特定手段にて特定されたコマンド
が、前記入力文によって意図されたコマンドに一致する
程度を推論する一致度推論手段と、前記実行コマンド特
定手段にて特定された実行コマンドに対応した応答文を
作成する際に、前記一致度推論手段にて推論された一致
の程度に応じて前記応答文の表現を変化させて作成する
応答文作成手段と、前記応答文作成手段にて作成された
応答文を提示する提示手段と、を具備したことを特徴と
するコマンド処理装置を提供する(第1の構成)。更
に、本発明は、前記目的を達成するために、ユーザから
自然言語にて入力された入力文を取得する入力文取得手
段と、前記入力文取得手段にて取得された前記入力文か
ら、実行コマンドを特定する際に用いるコマンド情報を
取得するコマンド情報取得手段と、前記入力文取得手段
にて取得された前記入力文から、前記ユーザが前記実行
コマンドよって操作される対象に対して抱いている心理
的距離感の程度を推論する心理的距離感推論手段と、前
記コマンド情報取得手段により取得されたコマンド情報
を用いて特定されたコマンドに対応した応答文を作成す
る際に、前記心理的距離感推論手段にて推論された心理
的距離感の程度に応じて前記応答文の表現を変化させて
作成する応答文作成手段と、前記応答文作成手段にて作
成された応答文を提示する提示手段と、を具備したこと
を特徴とするコマンド処理装置を提供する(第2の構
成)。更に、本発明は、前記目的を達成するために、ユ
ーザから自然言語にて入力された入力文を取得する入力
文取得手段と、前記入力文取得手段にて取得された入力
文からコマンド情報を取得するコマンド情報取得手段
と、前記コマンド情報取得手段にて取得されたコマンド
情報に実行すべき実行コマンドを特定するのに必要な情
報が不足している場合に、当該不足している情報を推論
する不足情報推論手段と、前記コマンド情報が前記実行
コマンドを特定するのに必要な情報を備えている場合
は、前記コマンド情報から前記実行コマンドを特定し、
前記コマンド情報に前記実行コマンドを特定するのに必
要な情報が不足している場合は、前記コマンド情報と前
記不足情報推論手段にて推論された情報を用いて前記実
行コマンドを特定する実行コマンド特定手段と、前記入
力文から前記ユーザが前記実行コマンドによって操作さ
れる対象に対して抱いている心理的距離感の程度を推論
する心理的距離感推論手段と、前記実行コマンド特定手
段にて特定された実行コマンドが、前記入力文によって
意図されたコマンドに一致する程度を推論する一致度推
論手段と、前記実行コマンド特定手段にて特定された実
行コマンドに対応した応答文を作成する際に、前記心理
的距離感推論手段にて推論された心理的距離感の程度と
前記一致度推論手段にて推論された一致の程度の内少な
くとも一方を用いて前記応答文の表現を変化させて作成
する応答文作成手段と、前記応答文作成手段にて作成さ
れた応答文を提示する提示手段と、を具備したことを特
徴とするコマンド処理装置を提供する(第3の構成)。
第1の構成又は第3の構成は、過去のコマンド実行の履
歴データを更に備え、前記不足情報推論手段は、前記コ
マンド実行の履歴データを用いて前記不足した情報を推
論するように構成することができる(第4の構成)。ま
た、第1の構成又は第3の構成は、前記実行コマンドが
実行される対象の、前記入力文取得時における状態を取
得する状態取得手段を更に備え、前記不足情報推論手段
は、前記状態取得手段にて取得された状態を用いて前記
不足した情報を推論するように構成することができる
(第5の構成)。第1の構成又は第3の構成から第5の
構成までのうちの何れかの1の構成は、コマンドに対応
した事例文データと、前記入力文取得手段にて取得した
入力文と最も類似した事例文を前記事例文データから取
得する類似事例文取得手段と、を更に備え、前記一致推
論得手段は、前記入力文の文節と、前記事例文の文節の
一致度を用いて前記一致の程度を推論するように構成す
ることができる(第6の構成)。また、第1の構成又は
第3の構成から第5の構成までのうちの何れかの1の構
成の前記一致度推論手段は、前記不足情報推論手段にて
不足している情報を推論する際に、当該推論が正しい確
率を用いて前記一致度を推論するように構成することが
できる(第7の構成)。更に、第1の構成又は第3の構
成から第5の構成までのうちの何れかの1の構成の前記
一致度推論手段は、前記実行コマンドに対応した事例文
データと、前記入力文取得手段にて取得した入力文と最
も類似した事例文を前記事例文データから取得する類似
事例文取得手段と、前記入力文の文節と前記類似事例文
取得手段にて取得した前記事例文の文節の一致度を用い
た場合の一致の程度を推論する文節一致度推論手段と、
前記不足情報推論手段にて推論された情報が正しい確率
を用いて一致の程度を推論する確率一致度推論手段と、
前記文節一致度推論手段にて取得した一致度と、前記確
率一致度推論手段にて取得した一致度を比較する比較手
段と、を更に備え、前記比較手段にて一致の程度が大き
いものを推論値とするように構成することができる(第
8の構成)。更に、第1の構成又は第3の構成から第8
の構成までのうちの何れかの1の構成は、前記一致度推
論手段にて推論された一致の程度に応じて、前記実行コ
マンドの実行前に前記ユーザに応答文を提示せずに前記
実行コマンドの実行を行うように構成することができる
(第9の構成)。また、第2の構成又は第3の構成は、
ユーザが前記実行コマンドによって操作される対象に対
して抱いている心理的距離感と対応した心理的距離感事
例文を用い構成された心理的距離感事例文データと、前
記入力文取得手段にて取得した入力文と最も類似する前
記心理的距離感事例文を前記心理的距離感事例文データ
から取得する心理的距離感事例文取得手段と、を更に備
え、前記心理的距離感推論手段は、前記心理的距離感事
例文取得手段にて取得された事例文に対応する心理的距
離感を推論値とするように構成することができる(第1
0の構成)。また、本発明は、前記目的を達成するため
に、ユーザから自然言語にて入力された入力文を取得す
る第1のステップと、前記第1のステップにて取得され
た入力文からコマンド情報を取得する第2のステップ
と、前記第2のステップにて取得されたコマンド情報に
実行すべき実行コマンドを特定するのに必要な情報が不
足している場合に、当該不足している情報を推論する第
3のステップと、前記第2のステップにて取得したコマ
ンド情報が前記実行コマンドを特定するのに必要な情報
を備えている場合は、前記コマンド情報から前記コマン
ドを特定し、前記コマンド情報に前記実行コマンドを特
定するのに必要な情報が不足している場合は、前記コマ
ンド情報と前記第3のステップにて推論された情報を用
いて前記実行コマンドを特定する第4のステップと、前
記第4のステップにて特定されたコマンドが、前記入力
文によって意図されたコマンドに一致する程度を推論す
る第5のステップと、前記第4のステップにて特定され
た実行コマンドに対応した応答文を作成する際に、前記
第5のステップにて推論された一致の程度に応じて前記
応答文の表現を変化させて作成する第6のステップと、
前記第6のステップにて作成された応答文を提示する第
7のステップと、から構成されたことを特徴とするコマ
ンド処理方法を提供する。また、本発明は、前記目的を
達成するために、ユーザから自然言語にて入力された入
力文を取得する第1のステップと、前記第1のステップ
にて取得された前記入力文から、実行コマンドを特定す
る際に用いるコマンド情報を取得する第2のステップ
と、前記第1のステップにて取得された前記入力文か
ら、前記ユーザが前記実行コマンドよって操作される対
象に対して抱いている心理的距離感の程度を推論する第
3のステップと、前記第2のステップにより取得された
コマンド情報を用いて特定されたコマンドに対応した応
答文を作成する際に、前記第3のステップにて推論され
た心理的距離感の程度に応じて前記応答文の表現を変化
させて作成する第4のステップと、前記第4のステップ
にて作成された応答文を提示する第5のステップと、か
ら構成されたことを特徴とするコマンド処理方法を提供
する。また、本発明は、前記目的を達成するために、ユ
ーザから自然言語にて入力された入力文を取得する入力
文取得機能と、前記入力文取得機能にて取得された入力
文からコマンド情報を取得するコマンド情報取得機能
と、前記コマンド情報取得機能にて取得されたコマンド
情報に実行すべき実行コマンドを特定するのに必要な情
報が不足している場合に、当該不足している情報を推論
する不足情報推論機能と、前記コマンド情報が前記実行
コマンドを特定するのに必要な情報を備えている場合
は、前記コマンド情報から前記コマンドを特定し、前記
コマンド情報に前記実行コマンドを特定するのに必要な
情報が不足している場合は、前記コマンド情報と前記不
足情報推論機能にて推論された情報を用いて前記実行コ
マンドを特定する実行コマンド特定機能と、前記実行コ
マンド特定機能にて特定されたコマンドが、前記入力文
によって意図されたコマンドに一致する程度を推論する
一致度推論機能と、前記実行コマンド特定機能にて特定
された実行コマンドに対応した応答文を作成する際に、
前記一致度推論機能にて推論された一致の程度に応じて
前記応答文の表現を変化させて作成する応答文作成機能
と、前記応答文作成機能にて作成された応答文を提示す
る提示機能と、をコンピュータに実現させるためのコマ
ンド処理プログラム、又はコマンド処理プログラムを記
憶したコンピュータが読み取り可能な記憶媒体を提供す
る。また、本発明は、前記目的を達成するために、ユー
ザから自然言語にて入力された入力文を取得する入力文
取得機能と、前記入力文取得機能にて取得された前記入
力文から、実行コマンドを特定する際に用いるコマンド
情報を取得するコマンド情報取得機能と、前記入力文取
得機能にて取得された前記入力文から、前記ユーザが前
記実行コマンドよって操作される対象に対して抱いてい
る心理的距離感の程度を推論する心理的距離感推論機能
と、前記コマンド情報取得機能により取得されたコマン
ド情報を用いて特定されたコマンドに対応した応答文を
作成する際に、前記心理的距離感推論機能にて推論され
た心理的距離感の程度に応じて前記応答文の表現を変化
させて作成する応答文作成機能と、前記応答文作成機能
にて作成された応答文を提示する提示機能と、をコンピ
ュータに実現させるためのコマンド処理プログラム、又
はコマンド処理プログラムを記憶したコンピュータが読
み取り可能な記憶媒体を提供する。According to the present invention, there is provided an input sentence obtaining means for obtaining an input sentence input by a user in a natural language, and an input sentence obtained by the input sentence obtaining means. Command information obtaining means for obtaining command information from the input sentence, and when the command information obtained by the command information obtaining means lacks information necessary to specify an execution command to be executed, Insufficient information inferring means for inferring missing information, and when the command information includes information necessary to identify the execution command, identify the command from the command information, the command information When the information necessary for specifying the execution command is insufficient, the execution command is used by using the command information and the information inferred by the insufficient information inference means. Execution command identification means for identifying the command, the degree of matching of the command specified by the execution command identification means to the command intended by the input sentence, the matching degree inference means, and the execution command identification means When creating a response sentence corresponding to the specified execution command, a response sentence creating unit that creates by changing the expression of the response sentence according to the degree of matching inferred by the matching degree inference unit; There is provided a command processing device comprising: a presentation unit for presenting a response sentence created by a response sentence creation unit (first configuration). Furthermore, in order to achieve the above object, the present invention provides an input sentence obtaining unit for obtaining an input sentence input in a natural language from a user, and executing the input sentence obtained from the input sentence obtaining unit. Command information acquisition means for acquiring command information used when specifying a command, and the input sentence acquired by the input sentence acquisition means, from which the user is holding the object operated by the execution command When creating a response sentence corresponding to the command specified by using the command information acquired by the command information acquired by the psychological distance inference means for inferring the degree of psychological distance feeling, the psychological distance Response sentence creating means for changing the expression of the response sentence according to the degree of psychological distance inferred by the feeling inference means, and a response sentence created by the response sentence creation means And presenting means for presenting, to provide a command processing apparatus characterized by comprising a (second configuration). Further, in order to achieve the above object, the present invention provides an input sentence acquiring means for acquiring an input sentence input by a user in a natural language, and command information from the input sentence acquired by the input sentence acquiring means. Command information acquisition means to be acquired, and in the case where information necessary for specifying an execution command to be executed is insufficient in the command information acquired by the command information acquisition means, infer the missing information. Shortage information inference means to perform, if the command information includes information necessary to specify the execution command, specify the execution command from the command information,
When the command information lacks information necessary to identify the execution command, an execution command identification that identifies the execution command using the command information and the information inferred by the lack information inference means. Means, a psychological distance sense inference means for inferring a degree of a psychological distance sense held by the user from the input sentence with respect to an object operated by the execution command, and the execution command identification means. Execution command, the matching degree inference means for inferring the degree to match the command intended by the input sentence, and when creating a response sentence corresponding to the execution command specified by the execution command identification means, At least one of the degree of the psychological distance sense inferred by the psychological distance inference inference means and the degree of coincidence inferred by the coincidence degree inference means is used. There is provided a command processing apparatus comprising: a response sentence creating unit that creates the response sentence by changing the expression of the response sentence; and a presentation unit that presents the response sentence created by the response sentence creation unit. (Third configuration).
The first configuration or the third configuration may further include history data of past command execution, and the shortage information inference unit may be configured to infer the shortage information using the command execution history data. (Fourth configuration). Further, the first configuration or the third configuration further includes a state obtaining unit that obtains a state of the target on which the execution command is executed at the time of obtaining the input sentence. The information obtained by the means may be configured to infer the insufficient information (fifth configuration). One of the first configuration or any of the third to fifth configurations has the most similar case sentence data corresponding to the command and the input sentence acquired by the input sentence acquisition means. A similar case sentence obtaining unit that obtains a case sentence from the case sentence data, wherein the coincidence inference obtaining unit uses the phrase of the input sentence and the degree of coincidence of the phrase of the case sentence to determine the degree of the match. (Sixth configuration). Further, the matching degree inference means of any one of the first or third to fifth configurations may be configured such that the inferred information inferring means infers missing information. Furthermore, the inference can be configured to infer the degree of coincidence using a correct probability (seventh configuration). Further, the matching degree inference means of any one of the first to third configurations or the third to fifth configurations includes: a case sentence data corresponding to the execution command; A similar case sentence obtaining means for obtaining, from the case sentence data, a case sentence most similar to the input sentence obtained in the step (a), and matching the phrase of the input sentence with the phrase of the case sentence obtained by the similar case sentence obtaining means Clause inference means for inferring the degree of match using the degree,
Probability coincidence inference means for inferring the degree of coincidence using the correct probability that the information inferred by the shortage information inference means,
A comparing unit that compares the degree of coincidence acquired by the phrase coincidence inferring unit with the degree of coincidence acquired by the probability coincidence inferring unit; and infers a large degree of coincidence by the comparing unit. It can be configured to be a value (eighth configuration). Further, from the first configuration or the third configuration to the eighth
In any one of the configurations up to the configuration of the above, the execution without presenting a response sentence to the user before the execution of the execution command, according to the degree of matching inferred by the matching degree inference means. It can be configured to execute a command (a ninth configuration). Further, the second configuration or the third configuration is
A psychological distance example sentence data composed using a psychological distance example sentence corresponding to a psychological distance sense held by the user with respect to the target operated by the execution command, and the input sentence acquiring means Further comprising: a psychological distance feeling case sentence acquiring unit that acquires the psychological distance feeling case sentence most similar to the acquired input sentence from the psychological distance feeling case sentence data; The psychological distance sense corresponding to the case sentence acquired by the psychological distance sense case sentence acquisition means may be configured as an inference value (first example).
0 configuration). Further, according to the present invention, in order to achieve the above object, a first step of obtaining an input sentence input in a natural language from a user, and command information from the input sentence obtained in the first step are obtained. A second step of acquiring, and, when the command information acquired in the second step lacks information necessary for specifying an execution command to be executed, infers the missing information. A third step to perform, and when the command information obtained in the second step includes information necessary to specify the execution command, the command is specified from the command information; If the information required to identify the execution command is insufficient, the execution command is identified using the command information and the information inferred in the third step. Step 4, a fifth step of inferring the degree to which the command specified in the fourth step matches the command intended by the input sentence, and an execution specified in the fourth step. A sixth step of creating a response sentence corresponding to the command by changing the expression of the response sentence according to the degree of matching inferred in the fifth step;
And a seventh step of presenting the response sentence created in the sixth step. Further, in order to achieve the above object, the present invention provides a first step of acquiring an input sentence input by a user in a natural language, and executing the first sentence obtained from the input sentence acquired in the first step. From the second step of acquiring command information used when specifying a command, and the input sentence acquired in the first step, the user holds the target operated by the execution command from the input sentence. A third step of inferring a degree of psychological distance feeling, and a step of creating a response sentence corresponding to the command specified by using the command information obtained in the second step, the third step A fourth step of changing the expression of the response sentence according to the degree of psychological distance inferred and a fifth step of presenting the response sentence created in the fourth step Provides a command processing method characterized in that it is composed of. Further, according to the present invention, in order to achieve the above object, an input sentence obtaining function for obtaining an input sentence input from a user in a natural language, and command information from the input sentence obtained by the input sentence obtaining function are provided. When the command information acquisition function to be acquired and the information required to specify the execution command to be executed in the command information acquired by the command information acquisition function are insufficient, the inferred information is inferred. Insufficient information inference function to be performed, and when the command information includes information necessary for specifying the execution command, the command is specified from the command information, and the execution command is specified in the command information. If the necessary information is insufficient, an execution command for specifying the execution command using the command information and the information inferred by the insufficient information inference function is used. A specifying function, a matching degree inference function for inferring a degree that the command specified by the execution command specifying function matches the command intended by the input sentence, and an execution command specified by the execution command specifying function When creating a response sentence corresponding to
A response sentence creation function for changing the expression of the response sentence according to the degree of matching inferred by the matching degree inference function, and a presentation function for presenting the response sentence created by the response sentence creation function And a computer-readable storage medium storing the command processing program for causing the computer to realize the above. Further, according to the present invention, in order to achieve the above object, an input sentence obtaining function for obtaining an input sentence input by a user in a natural language, and an execution from the input sentence obtained by the input sentence obtaining function, From the input information acquired by the command information acquisition function for acquiring the command information used when specifying the command and the input sentence acquisition function, the user holds the object operated by the execution command. When creating a response sentence corresponding to a command specified by using the command information acquired by the command information acquisition function and a psychological distance feeling inference function for inferring the degree of psychological distance feeling, the psychological distance A response sentence creation function for changing the expression of the response sentence according to the degree of psychological distance inferred by the feeling inference function, and a response sentence created by the response sentence creation function Command processing program for realizing a presentation function for presenting, to a computer a computer or storing the command processing program, provides a storage medium readable.
【0013】[0013]
【発明の実施の形態】本実施の形態では、ユーザ発話に
おける意図の明らかさの程度を示す確信度と、ユーザが
装置に対して抱いている心理的距離感をユーザの発話し
た内容から推察し、これによって、コマンド実行の事前
確認を省略したり、ユーザと対話する際の言葉遣いを変
化させるものである。以下、本発明の好適な実施の形態
について、図1から図9を参照して詳細に説明する。DESCRIPTION OF THE PREFERRED EMBODIMENTS In the present embodiment, a certainty factor indicating a degree of clarity of intention in a user's utterance and a sense of psychological distance held by the user with respect to the device are inferred from the content of the user's utterance. Thereby, the prior confirmation of the command execution is omitted, and the language used when interacting with the user is changed. Hereinafter, a preferred embodiment of the present invention will be described in detail with reference to FIGS.
【0014】図1は、本実施の形態におけるコマンド処
理装置1(エージェントと呼ばれることがある)の構成
の一例を示した図である。マイク9は、例えば、「テレ
ビを消して」とか、「この段落に波線を付けて」など
と、ユーザが発声した自然言語を取得する部分である。
その他入力機器10は、例えば、キーボードなどであ
り、ワープロ操作を行う場合やパーソナルコンピュータ
でヘルプを検索する際などにユーザがキーボードから自
然言語を入力することもできる。なお、コマンド処理装
置1では、マイク9とその他入力機器10を両方具備し
ているが、これは、何れか一方のみ具備しても良い。入
力部8は、バスライン3とマイク9、その他入力機器1
0とのインターフェースを提供する部分である。FIG. 1 is a diagram showing an example of the configuration of a command processing device 1 (sometimes called an agent) in the present embodiment. The microphone 9 is a part that acquires a natural language spoken by the user, such as “turn off the television” or “add a wavy line to this paragraph”.
In addition, the input device 10 is, for example, a keyboard, and the user can also input a natural language from the keyboard when performing a word processing operation or searching for help on a personal computer. Although the command processing device 1 includes both the microphone 9 and the other input devices 10, only one of them may be provided. The input unit 8 includes a bus line 3, a microphone 9, and other input devices 1.
This is a part that provides an interface with the “0”.
【0015】ROM(Read Only Memor
y)4には、コマンド処理装置1が動作する上で必要な
基本的なプログラムが記録されている。RAM(Ran
dom Access Memory)5は、中央処理
装置2にワーキングメモリを提供したり、記憶装置7に
記憶されている各種プログラムを実行する際に、これら
をロードしたりする部分である。ROM (Read Only Memory)
y) 4, a basic program necessary for the operation of the command processing device 1 is recorded. RAM (Ran
A dom access memory (5) is a part that provides a working memory to the central processing unit 2 and loads various programs stored in the storage device 7 when executing them.
【0016】記憶装置7は、ハードディスクやその他の
不揮発性メモリなどによって構成されており、各種プロ
グラムが格納されたプログラム部15とデータベース部
16を備えている。プログラム部15には、コマンド処
理装置1に所定のアルゴリズムに従ってコマンド処理を
行わせるためのコマンド処理プログラムやその他のプロ
グラムが格納されている。データベース16には、ユー
ザから入力された文を解析するのに使用する事例辞書
や、後に説明する確信度を計算するのに使用する状態情
報データベースやコマンドの実行履歴などが記録されて
いる。The storage device 7 is constituted by a hard disk or other non-volatile memory, etc., and includes a program unit 15 storing various programs and a database unit 16. The program unit 15 stores a command processing program for causing the command processing device 1 to perform command processing according to a predetermined algorithm, and other programs. The database 16 records a case dictionary used for analyzing a sentence input by a user, a state information database used for calculating a certainty factor described later, a command execution history, and the like.
【0017】出力部11は、コマンド処理装置1が外部
とやり取りする際のインターフェースを提供する部分で
あり、機器制御部12、ディスプレイ13、スピーカ1
4などと接続している。機器制御部12は、中央処理装
置2から送られてきたコマンドを受信し、当該電子装置
がテレビの場合はテレビを消したり、ワープロの場合
は、フロッピー(登録商標)ディスクドライブを制御し
たりなど、コマンドを実行する部分である。ディスプレ
イ13は、当該装置がワープロの場合に、例えば「背景
を赤にします。」といった、メッセージを表示し、ユー
ザと対話する際のヒューマンンターフェースを提供す
る。スピーカ14も、例えば、「下線を引きます。」な
どと音声でメッセージを出し、ユーザとのヒューマンン
ターフェースを提供する。The output section 11 is a section for providing an interface when the command processing apparatus 1 exchanges data with the outside. The output section 11 includes a device control section 12, a display 13, and a speaker 1
4 and so on. The device control unit 12 receives a command sent from the central processing unit 2 and turns off the television when the electronic device is a television, controls a floppy (registered trademark) disk drive when the electronic device is a word processor, and the like. , Where the command is executed. When the device is a word processor, the display 13 displays a message such as "make the background red," and provides a human interface for interacting with the user. The speaker 14 also issues a voice message such as “underline” to provide a human interface with the user.
【0018】中央処理装置2は、例えばCPU(Cen
tral ProcessingUnit)などによっ
て構成されており、ROM4、又はプログラム部15に
格納されたプログラムにしたがって、各種の演算やコマ
ンド処理装置1の各部を制御する部分である。The central processing unit 2 includes, for example, a CPU (Cen).
The processing unit is configured to control various arithmetic operations and each unit of the command processing device 1 according to a program stored in the ROM 4 or the program unit 15.
【0019】以上説明したように、コマンド処理装置1
は、ユーザからの入力文を入力部8から入力し、中央処
理装置2がプログラム部15のコマンド処理プログラム
に従って入力文を解析してコマンド情報を取得し、出力
部11からコマンド情報が出力される。以上、コマンド
処理装置1は、一例として、テレビとワープロに対応す
るように構成したが、これに限定するものではなく、例
えば、テレビの場合、キーボードなどは必要ない。ま
た、コマンド処理プログラムは、ROM4に記録してお
いても良い。As described above, the command processing device 1
Is input from the input unit 8, the central processing unit 2 analyzes the input sentence according to the command processing program of the program unit 15 to obtain command information, and the command information is output from the output unit 11. . As described above, the command processing device 1 is configured to be compatible with a television and a word processor as an example, but is not limited thereto. For example, a keyboard is not required in the case of a television. The command processing program may be recorded in the ROM 4.
【0020】図2は、コマンド処理装置1の各機能を構
成する構成要素(コンポーネント)を示した図である。
なお、図2に示した各コンポーネントは、プログラム1
5に格納されたコマンド処理プログラムがRAM5にロ
ードされて、ソフトウェア的に構成されるものである。
なお、本実施の形態では、各コンポーネントはソフトウ
ェアによって実現したがこれに限定するものではなく、
ハードウェアによって構成しても良い。FIG. 2 is a diagram showing components constituting each function of the command processing apparatus 1.
Each component shown in FIG.
The command processing program stored in the RAM 5 is loaded into the RAM 5 and configured as software.
In this embodiment, each component is realized by software, but is not limited to this.
It may be configured by hardware.
【0021】言語解析処理コンポーネント22は、ユー
ザから取得した自然言語(コマンド要求発話)を解析し
て文構造情報を出力するコンポーネントであって、ユー
ザから取得した入力文21が、どのような単語が、どの
ように文節を形成し、それらの文節がどのように関係付
けられているかといったようなことを解析する。確信度
コンポーネント23は、言語解析処理コンポーネント2
2から文構造情報を受け取り、確信度情報と実行コマン
ド情報を応答文作成コンポーネント25に対して出力す
る。The language analysis processing component 22 is a component that analyzes a natural language (command request utterance) obtained from the user and outputs sentence structure information. , How to form phrases and how those phrases are related. The confidence component 23 is a language analysis processing component 2
2, and outputs the certainty factor information and the execution command information to the response sentence creation component 25.
【0022】確信度情報は、ユーザがコマンド要求発話
によって意図したコマンドとコマンド処理装置1がコマ
ンド要求発話に不足する情報を補って特定したコマンド
が一致する程度を0から1までの数値で表したものであ
る。ここでは、0から1になるに従って一致度が大きく
なるとした。更に具体的に述べると、確信度は、ユーザ
の入力した入力文(コマンド要求発話)と、当該入力文
から特定されたコマンド情報がどの程度の確からしさで
対応しているかという程度を示す指標である。即ち、ユ
ーザから取得したコマンド要求発話にコマンドを特定す
るため必要な情報が不足している場合、コマンド処理装
置1は、ユーザの意図を推測してとりあえずコマンド情
報を特定する。不足する情報が少なければ少ないほどユ
ーザの意図とコマンド処理装置1が特定したコマンドが
一致する確率が高くなる。確信度は、このようにコマン
ド実行を行うためにどの程度の情報が不足しているかの
度合いを表すと言うこともできる。このように、確信度
はユーザのコマンド実行時における自信という意味では
ない。The certainty factor information is a numerical value from 0 to 1 indicating the degree to which the command intended by the user by the command request utterance matches the command specified by the command processing device 1 by supplementing the information lacking in the command request utterance. Things. Here, it is assumed that the degree of coincidence increases from 0 to 1. More specifically, the certainty factor is an index indicating the degree of certainty that the input sentence (command utterance) input by the user corresponds to the command information specified from the input sentence. is there. That is, when the command request utterance obtained from the user lacks information necessary for specifying the command, the command processing device 1 estimates the user's intention and specifies the command information for the time being. The less information that is missing, the higher the probability that the user's intention matches the command specified by the command processing device 1. The degree of certainty can be said to indicate the degree of information that is insufficient for executing the command. Thus, the certainty factor does not mean the user's confidence in executing the command.
【0023】実行コマンド情報は、ユーザのコマンド要
求発話に、コマンド特定に必要な情報が欠落している場
合に、欠落情報を推測して補完し、その補完された情報
から特定されたコマンドを表す情報である。確信度コン
ポーネント23の詳細については後ほど説明する。心理
的距離感コンポーネント24は、ユーザが、当該コマン
ド処理装置1によって操作している装置(以下被操作装
置)に抱いている心理的距離感を、ユーザのコマンド要
求発話の語尾表現などから推測するコンポーネントであ
る。心理的距離感コンポーネント24は、心理的距離感
を−2から+2までの数値に数値化した心理的距離感情
報を応答文作成コンポーネント25に送出する。心理的
距離感は、ユーザが被操作装置に対して接する態度がフ
レンドリーかどうかを示す尺度となる。心理的距離感コ
ンポーネント24の詳細については後ほど説明する。The execution command information, when information required for command identification is missing in the user's command request utterance, supplements the information by guessing the missing information and representing the command identified from the complemented information. Information. Details of the certainty component 23 will be described later. The psychological distance component 24 infers the psychological distance that the user has in the device (hereinafter, the operated device) operated by the command processing device 1 from the ending expression of the user's command request utterance. Component. The psychological distance feeling component 24 sends the psychological distance feeling information obtained by quantifying the psychological distance feeling into a numerical value from −2 to +2 to the response sentence creating component 25. The psychological distance sense is a scale indicating whether or not the user's attitude toward the operated device is friendly. Details of the psychological distance component 24 will be described later.
【0024】応答文作成コンポーネント25は、確信度
コンポーネント23から取得した確信度情報、実行コマ
ンド情報と心理的距離感コンポーネント24から取得し
た心理的距離感情報を用いて、ユーザに応答するための
応答文を作成するコンポーネントである。応答文作成コ
ンポーネント25は、確信度情報、心理的距離感情報か
ら言葉遣いなどの発話表現を変化させた応答文26を作
成する。また、図示しないが実行コマンド情報は、図1
の出力部11に送られて実行される。The response sentence creating component 25 uses the certainty information acquired from the certainty component 23, the execution command information and the psychological distance information acquired from the psychological distance component 24 to respond to the user. A component that creates a sentence. The response sentence creation component 25 creates a response sentence 26 in which an utterance expression such as language is changed from the certainty factor information and the psychological distance information. Although not shown, the execution command information is shown in FIG.
Is sent to the output unit 11 and executed.
【0025】発話表現の変化としては、例えば、文末表
現を変化させる場合、確信度が小さいほうから大きくな
るにつれて、「波線にしたらいかが?」、「波線に致し
ましょうか?」、「波線にしますか?」、「波線にしま
しょうよ」、「波線にしますね」、「波線にします」の
ように変化させることができる。また、心理的距離感が
小さいほうから大きくなるにつれて、「波線でいいよ
ね。」、「波線にしますか?」、「波線に致しましょう
か?」というように文末を変化させることができる。As the change of the utterance expression, for example, when changing the expression at the end of the sentence, as the degree of certainty increases from the smaller one, it is changed to “Water line”, “Let's make it a wavy line”, “Wave line”. ","Let's make it a wavy line, ""I'll make it a wavy line, "and" I make it a wavy line. " In addition, as the sense of psychological distance increases from the smaller one, the end of the sentence can be changed, such as "I like the wavy line,""Do you want to make it wavy?"
【0026】また、文末以外の部分を変化させる場合、
「波線では?」、「波線とかもありますが・・・」、
「波線にでもしますか?」、「波線なんてどうですか
?」、「波線あたりはどうでしょうか」、「波線にでも
してみますか?」、「とりあえず破線にしてみましょ
う」のように表現を変化させることができる。When a portion other than the end of a sentence is changed,
"Waves?", "Waves ..."
Expressions such as "Do you want to use wavy lines?", "What about wavy lines?", "What about wavy lines?", "Do you want to use wavy lines?" Can be changed.
【0027】また、確信度情報によって、コマンド実行
確認の方法を変化させることもできる。以下に音声ワー
プロによって、その一例を従来例と対比しながら示す。
なお、処理装置はコマンド処理装置1を示す。 (従来のコマンド処理装置とユーザとの対話例) ユーザ:線を引く。 処理装置:「点線にする」を実行します。よろしいです
か? ユーザ:いや、波線にする。 処理装置:「波線にする」を実行します。よろしいです
か? ユーザ:はい。 ユーザの返答の後に被操作装置が波線を引く。Further, the method of confirming the command execution can be changed according to the certainty factor information. An example is shown below using a voice word processor in comparison with a conventional example.
The processing device indicates the command processing device 1. (Example of dialogue between conventional command processing device and user) User: draws a line. Processing unit: Execute "Dotted line". Is it OK? User: No, it's wavy. Processing unit: Executes "Make a wavy line". Is it OK? User: Yes. The operated device draws a wavy line after the response from the user.
【0028】(本実施の形態のコマンド処理装置とユー
ザとの対話例) ユーザ:線を引く →確信度小 処理装置:「点線」にしてみましょうか? ユーザ:いや、波線にする。 →確信度:大 ユーザの返答の後に被操作装置が波線を引く。 処理装置:「波線」にしました。(Example of dialogue between the command processing device of the present embodiment and the user) User: draw a line → small confidence processing device: why not use a "dotted line"? User: No, it's wavy. → Confidence: Large The operated device draws a wavy line after the user's response. Processing device: "wavy line".
【0029】上記のユーザの「線を引く」との発話内容
の確信度が小さいと確信度コンポーネント23が判断し
たため、処理装置は「点線にしてみましょうか?」とユ
ーザにコマンド実行前確認を行う。また、ユーザの「い
や、波線にする」との発話の確信度が大きいと確信度コ
ンポーネント23によって判断されたため、処理装置の
「”波線にする”を実行します。よろしいですか?」と
のコマンド実行前確認を省略して、被操作装置は即座に
波線を引く。そして、コマンド処理装置1は、その後に
ユーザにコマンド実行の事後報告を行う。Since the certainty component 23 has determined that the certainty of the user's utterance of "drawing a line" is small, the processing apparatus asks the user to confirm the command before executing the command, "Let's try a dotted line?" Do. Further, since the certainty component 23 has determined that the certainty factor of the user's utterance of “No, to make a wavy line” is large, the processing device executes “to make a wavy line.” By omitting the confirmation before executing the command, the operated device immediately draws a wavy line. Then, the command processing device 1 subsequently reports to the user after the command execution.
【0030】このように、確信度によってコマンド実行
確認の方法を変化させることにより、ユーザの意図が十
分わかっている場合は、いちいちコマンド実行前確認を
行わず、事後報告発話で済ますことができ、ユーザの負
荷が軽減される。以上に説明したように、応答文作成コ
ンポーネント25は、確信度情報、心理的距離感情報を
元にして実行コマンド情報で得られたコマンド情報をユ
ーザに対して表現する表現方法を変化させる。As described above, by changing the method of confirming command execution according to the degree of certainty, if the user's intention is sufficiently understood, it is possible to perform post-report utterance without performing pre-command execution confirmation each time. The load on the user is reduced. As described above, the response sentence creation component 25 changes the expression method for expressing the command information obtained as the execution command information to the user based on the certainty factor information and the psychological distance information.
【0031】図3は、確信度コンポーネント23の構成
を示した図である。このコンポーネントの概要は以下の
通りである。確信度コンポーネント23は、入力文と事
例辞書33の事例文との比較から第1の確信度を算出
し、入力文と被操作装置の状態との比較から第2の確信
度を取得し、入力文と過去のコマンド実行履歴から第3
の確信度を算出し、これらの確信度のうち最も大きい確
信度を確信度情報40として出力する。また、入力文に
欠落情報がある場合は、過去のコマンドの実行履歴から
これを推測補完して実行コマンド情報41を出力する。FIG. 3 is a diagram showing the structure of the certainty component 23. The outline of this component is as follows. The certainty component 23 calculates a first certainty from a comparison between the input sentence and the case sentence in the case dictionary 33, obtains a second certainty from a comparison between the input sentence and the state of the operated device, and Third from statement and past command execution history
Is calculated, and the highest certainty factor among these certainty factors is output as certainty information 40. If there is missing information in the input sentence, the execution command information 41 is output by guessing and complementing the missing information from the past command execution history.
【0032】以下に、確信度コンポーネント23の詳細
について説明する。図2の言語解析処理コンポーネント
22から送出された文構造情報31は、事例照合処理部
32に入力される。事例照合処理部32は、事例辞書3
3に登録されている事例文とユーザのコマンド要求発話
を照合し、一番類似していると思われる事例文に対応付
けられている実行コマンド情報を取得する。The details of the certainty component 23 will be described below. The sentence structure information 31 sent from the language analysis processing component 22 in FIG. 2 is input to the case matching processing unit 32. The case collation processing unit 32 stores the case dictionary 3
3 is compared with the user's command request utterance, and execution command information associated with the case sentence that is considered to be most similar is acquired.
【0033】また、本実施の形態では、一例として以下
の式(1)により第1の確信度を定義した。 (確信度)=(事例文に一致した文節の数)/(事例文の文節の数)・・(1) 事例照合処理部32は、第1の確信度を確信度情報決定
部39に送出すると共に、実行コマンド情報を欠落情報
推論部34に出力する。この実行コマンド情報は、情報
の一部が欠落している可能性がある。事例照合処理部3
2が行う処理の具体例は後ほど示す。In the present embodiment, the first certainty factor is defined by the following equation (1) as an example. (Confidence) = (number of clauses matching case sentence) / (number of clauses of case sentence) (1) The case matching processing unit 32 sends the first certainty to the certainty information determination unit 39. At the same time, the execution command information is output to the missing information inference unit 34. This execution command information may be partially missing. Case matching processing unit 3
A specific example of the process performed by No. 2 will be described later.
【0034】欠落情報推論部34は、状態情報推論部3
7と実行履歴推論部38から構成されている。状態情報
推論部37は、被操作装置の状態情報(詳細は後に述べ
るが例えば、テレビの場合、受信できるチャンネルが
1、3、12であるといった情報)を取得し、この情報
を元に事例照合部32から送られてきた実行コマンド情
報で欠落している部分を推測し、この推測により第2の
確信度を計算する。欠落情報推論部34は、欠落した情
報を補完して実行コマンド情報を作成する。状態情報推
論部37は、第2の確信度を確信度情報決定部39に送
出する。The missing information inference unit 34 is provided with the state information inference unit 3
7 and an execution history inference unit 38. The state information inference unit 37 acquires the state information of the operated device (for details, for example, information that the receivable channels are 1, 3, and 12 in the case of a television, which will be described later), and performs case comparison based on this information. The missing part is estimated from the execution command information sent from the unit 32, and a second certainty factor is calculated based on the estimation. The missing information inference unit 34 creates execution command information by complementing the missing information. The state information inference unit 37 sends the second certainty factor to the certainty factor information determination unit 39.
【0035】本実施の形態では、状態情報推論部37
は、以下の条件に沿って第2の確信度を算出するものと
した。状態情報を用いて欠落情報の推論をする必要がな
い場合、第2の確信度を1.0とする。状態情報を用い
て欠落情報の推論を行った場合、唯一の回答が得られた
場合、第2の欠落情報を0.9とする。状態情報を用い
て欠落情報の推論を行った場合、複数の回答候補が得ら
れた場合は、0.9を候補の個数で除したものとする。
なお、「状態情報を用いて欠落情報の推論をする必要が
ない場合」とは、事例照合処理部32で文構造情報31
と事例文を照合した結果、文構造情報31に欠落した情
報がなかったことを意味する。次に述べる実行履歴推論
部38も含め、欠落情報推論部34が行う処理の具体例
は後ほど示す。In this embodiment, the state information inference unit 37
Calculates the second certainty factor under the following conditions. When it is not necessary to infer missing information using state information, the second certainty factor is set to 1.0. When inference of missing information is performed using state information, when only one answer is obtained, the second missing information is set to 0.9. When inferring missing information using state information, and when a plurality of answer candidates are obtained, it is assumed that 0.9 is divided by the number of candidates.
Note that “when it is not necessary to infer missing information using state information” means that the case matching processing unit 32 uses the sentence structure information 31
Means that there is no missing information in the sentence structure information 31. Specific examples of the processing performed by the missing information inference unit 34, including the execution history inference unit 38 described below, will be described later.
【0036】実行履歴推論部38は、過去にユーザが被
操作装置に与えてきた入力に関する履歴と、また、被操
作装置が実行したコマンドに関する履歴を実行履歴デー
タベース36から受け取り(双方の履歴を合わせて実行
履歴と呼ぶことにする)、これらの履歴を元にして事例
照合処理部32から送られてきた実行コマンド情報に欠
落している情報を推論する。そして、推論された欠落情
報を元に当該実行コマンド補完して出力する。また、推
論する際に第3の確信度を算出し、確信度情報決定部3
9に送出する。The execution history inference unit 38 receives, from the execution history database 36, a history related to an input given to the operated device by the user in the past and a history related to a command executed by the operated device (the two histories are combined). Based on these histories, information missing from the execution command information sent from the case matching processing unit 32 is inferred. Then, the execution command is complemented and output based on the inferred missing information. Further, a third certainty factor is calculated at the time of inference, and the certainty factor information determining unit 3
9
【0037】本実施の形態では、一例として、実行履歴
推論部38にて第3の確信度を以下の条件に沿って算出
することとした。実行履歴からの推論を必要としない場
合は、第3の確信度を1.0とする。実行履歴から推論
を行った場合は、第3の確信度を推論結果が正しい確率
に0.6を乗じた値とする。ここで、推論結果が正しい
確率は実行履歴から求められる。実行履歴推論部38が
行う処理の具体例は後ほど示す。なお、「状態情報を用
いて欠落情報の推論をする必要がない場合」とは、実行
履歴推論部38で文構造情報31と実行履歴を比較した
結果、文構造情報31に欠落した情報がなかったことを
意味する。In the present embodiment, as an example, the third certainty factor is calculated by the execution history inference unit 38 under the following conditions. If inference from the execution history is not required, the third certainty factor is set to 1.0. When inference is performed from the execution history, the third certainty factor is set to a value obtained by multiplying the probability that the inference result is correct by 0.6. Here, the probability that the inference result is correct is obtained from the execution history. A specific example of the processing performed by the execution history inference unit 38 will be described later. Note that “when there is no need to infer missing information using state information” means that the sentence structure information 31 and the execution history are compared by the execution history inference unit 38, and that there is no missing information in the sentence structure information 31. Means that
【0038】確信度決定部39は、第1の確信度、第2
の確信度、第3の確信度を受け取り、これらの大きさを
比較する。そして確信度が最も大きいものを確信度情報
として図2の応答文作成コンポーネント25に送出す
る。また、欠落情報推論部34は、確信度決定部39で
の比較の結果、第2の確信度が第3の確信度より大きい
場合は、状態情報推論部37が補完した実行コマンド情
報を応答文作成コンポーネント25に送出し、第3の確
信度が第2の確信度より大きい場合は、実行履歴推論部
38が補完した実行コマンド情報を応答文作成コンポー
ネント25に送出する。The certainty determining unit 39 determines the first certainty, the second certainty,
, And a third certainty, and compare their magnitudes. Then, the one with the highest certainty is sent to the response sentence creating component 25 in FIG. 2 as certainty information. If the second credibility is greater than the third conviction as a result of the comparison in the credibility determination section 39, the missing information inference section 34 adds the execution command information complemented by the state information inference section 37 to the response statement. When the third certainty is greater than the second certainty, the execution history inference unit 38 sends the completed execution command information to the response sentence creation component 25.
【0039】以下に、確信度コンポーネント23が、確
信度情報と、実行コマンド情報を取得する場合を具体例
を用いて説明する。 (具体例1)被操作装置としてテレビを想定する。この
場合にユーザがコマンド処理装置1に「テレビが見た
い」という入力を与えた場合を考える。この入力は、図
2の言語解析処理コンポーネント22にて解析され、解
析結果が文構造情報として確信度コンポーネント23に
入力される。Hereinafter, a case where the certainty component 23 obtains certainty information and execution command information will be described using a specific example. (Specific Example 1) A television is assumed as the operated device. In this case, it is assumed that the user gives an input of “I want to watch TV” to the command processing device 1. This input is analyzed by the language analysis processing component 22 of FIG. 2, and the analysis result is input to the certainty factor component 23 as sentence structure information.
【0040】事例照合処理部32は以下のように動作す
る。事例照合処理部32は、事例辞書33から最も似て
いると思われる事例を検索する。その結果「[数字]/
チャンネルの/テレビが/見たい」という事例が最も類
似していると解析されたとする。ただし、文節を/記号
で区分している。文構造情報として入力された文の文節
のうち、事例文(4文節)に一致した文節数が2なので
(「テレビが」と「見たい」)、確信度は2/4=0.
5となる。The case collating unit 32 operates as follows. The case matching processing unit 32 searches the case dictionary 33 for a case considered to be most similar. As a result, [[number] /
It is assumed that the case of "I want to watch / TV on the channel" is analyzed to be the most similar. However, phrases are separated by / symbols. Since the number of clauses that match the case sentence (four clauses) among the clauses of the sentence input as the sentence structure information is 2 (“I want to see” and “TV”), the confidence is 2/4 = 0.
It becomes 5.
【0041】事例照合処理部32での事例照合処理の結
果、チャンネル情報が欠落しているため、状態情報推論
部37は、状態情報推論処理を行う。当該テレビで視聴
することができるチャンネルが1、3、12の3つとす
る。この情報は状態情報データベース35に記録されて
いる。このとき、状態情報推論部37で得られる回答候
補とその確信度は図4(a)に示したようになる。即
ち、回答候補としては、「1チャンネルのテレビを見
る」、「3チャンネルのテレビを見る」、「12チャン
ネルのテレビを見る」の3通りあり、それぞれ確信度が
等しく、かつ確信度は0から1までの値をとるため、そ
れぞれの回答候補の確信度は、1/3=0.3となる。
ただし、小数点第2位以下は切り捨てた。このように、
各回答候補の確信度が等しい場合、状態情報推論部37
は、例えば、候補が3つある場合、候補に順位付けをし
ておき、順位が上のものを採用したり、又は、3つの候
補をユーザに提案するなどして欠落情報を補完する。As a result of the case collation processing in the case collation processing unit 32, the channel information is missing, so that the state information inference unit 37 performs the state information inference processing. It is assumed that three channels 1, 3, and 12 can be viewed on the television. This information is recorded in the state information database 35. At this time, the answer candidates obtained by the state information inference unit 37 and their certainty factors are as shown in FIG. That is, there are three types of answer candidates: “watch 1-channel TV”, “watch 3 channel TV”, and “watch 12 channel TV”, each having the same certainty and the certainty from 0. Since it takes a value up to 1, the certainty factor of each answer candidate is 1/3 = 0.3.
However, figures after the second decimal place have been rounded down. in this way,
If the certainty of each answer candidate is equal, the state information inference unit 37
For example, when there are three candidates, the candidates are ranked, and the missing information is complemented by adopting a candidate having a higher rank, or by suggesting three candidates to the user.
【0042】実行履歴推論部38は、ユーザがコマンド
要求を行った曜日や時間帯を元に、実行履歴データベー
ス36の過去の実行履歴から、ユーザが当該曜日、当該
時間帯に見ていたチャンネルの傾向を分析する。例えば
コマンド要求を行ったのが、月曜夜9時であったとす
る。実行履歴推論部38が実行履歴データベース36の
過去の実行履歴を調べた結果、ユーザが月曜日の夜9時
に見ていたチャンネルの割合が図4(b)に示したよう
に、1チャンネルが90%、3チャンネルが5%、12
チャンネルが5%であったとする。このときの各回答候
補の確信度は図4(c)に示したように、「1チャンネ
ルのテレビを見る」が0.54、「3チャンネルのテレ
ビを見る」が0.03、「12チャンネルのテレビを見
る」が0.03となる。また補完された実行コマンド情
報は「1チャンネルのテレビを見る」となる。The execution history inference unit 38 uses the past execution history of the execution history database 36 based on the day of the week or the time period when the user made a command request, and displays the channel of the channel that the user was watching during the day of the week and the time period. Analyze trends. For example, it is assumed that the command request is made on Monday night at 9:00. As a result of examining the past execution history of the execution history database 36 by the execution history inference unit 38, as shown in FIG. 5% for 3 channels, 12
Assume that the channel is 5%. At this time, as shown in FIG. 4C, the certainty factor of each answer candidate is 0.54 for “watch 1-channel TV”, 0.03 for “watch 3-channel TV”, and “12 channel”. Watch TV "is 0.03. The supplemented execution command information is “Watch one-channel television”.
【0043】具体例2を説明する前に、第3の確信度を
調整して精度を高める信頼度を定義する。信頼度は、ユ
ーザがコマンド処理装置1を信用している程度を示す−
2から+2までの値であって、過去の実行履歴から第3
の信頼度の値を決定する際に、最終的な計算値を上下し
て調節するものである。ユーザがコマンド処理装置1の
解析結果を信用していると判断した場合は、第3の確信
度は、信頼度による修正により、より大きな値に修正さ
れ、ユーザがコマンド処理装置1の解析結果をあまり信
用していないと判断した場合は、第3の確信度は、信頼
度による修正により値が小さく修正される。Before explaining the second embodiment, the third confidence level is adjusted to define the reliability level for improving the accuracy. The reliability indicates the degree to which the user trusts the command processing device 1-
A value from 2 to +2, which is the third
In determining the value of the reliability, the final calculated value is adjusted up or down. If the user determines that the analysis result of the command processing device 1 is trusted, the third confidence factor is corrected to a larger value by the correction based on the reliability, and the user checks the analysis result of the command processing device 1. If it is determined that the user does not trust much, the third certainty factor is corrected to a smaller value by the correction based on the reliability.
【0044】信頼度の値は以下の要素により求められ
る。ユーザの期待と違ったコマンドを被操作装置が実行
してしまった際にユーザが発した「なにやってるんだ
よ」、「違う違う」、「だめじゃないか」といった叱責
や罵倒の表現をコマンド処理装置1が取得したときは
(例えば信頼度を−1とする)信頼度を低下させる。一
方、ユーザから「すごい」、「やるね」、「できる」、
「そうそう」といった(例えば、信頼度を+1とする)
コマンド実行結果に対する肯定・賞賛表現をコマンド処
理装置1が取得した場合は信頼度を上昇する。The value of the reliability is obtained by the following factors. Expressions of reprimand or abuse such as "What are you doing?", "Is different", or "Isn't it?" When the operated device executes a command that is different from the user's expectation Is reduced (for example, the reliability is set to −1), the command processing device 1 decreases the reliability. On the other hand, from the user, "great", "do it", "can do",
"Yes" (for example, the reliability is set to +1)
When the command processing device 1 acquires an affirmative / praise expression for the command execution result, the reliability increases.
【0045】更に、ユーザがコマンド処理装置1を信頼
してい判断できる語句としては、次のものが考えられ
る。話し手と聞き手が共に指示対象を良く知っている場
合には、具体的な指示名称を用いずに指示代名詞「あ
れ」、「あの」などが使用される。また、「いつも利用
しているので何をすべきかわかっているだろう」という
想定があれは「いつもの」という言い方をする場合もあ
る。そこで、ユーザが具体的な名称を用いず、これらの
指示代名詞などを用いて、例えば「いつものやり方」、
「あのファイル」、「あれを見たい」などのコマンド要
求をコマンド処理装置1に行う場合は(例えば、信頼度
を+2とする)信頼度を上昇させる。Further, the following words can be considered as words that the user can trust and determine the command processing device 1. When both the speaker and the listener are familiar with the instruction target, the instruction pronouns “Are” and “Ano” are used without using a specific instruction name. Also, the assumption that "you always know what to do because you use it" is sometimes called "usual". Therefore, the user uses these demonstrative pronouns without using a specific name, for example,
When a command request such as “that file” or “want to see that file” is made to the command processing device 1 (for example, the reliability is set to +2), the reliability is increased.
【0046】第3の確信度は、一例として信頼度を用い
て下の式(2)のように定義することができる。 (第3の信頼度)=(得られた結果が正しい確率)×(0.6+0.15×(信 頼度))・・・(2)The third certainty factor can be defined as in the following equation (2) using reliability as an example. (Third reliability) = (probability that the obtained result is correct) × (0.6 + 0.15 × (reliability)) (2)
【0047】(具体例2)具体例2では、式(2)に示
したように、信頼度をも加味して第3の確信度を求め
る。ユーザが被操作装置(この具体例ではテレビ)に設
置されたコマンド処理装置1に対して「いつものが見た
い」という入力を与えたとする。ユーザがコマンド処理
装置1を信頼していることが判定できる語句「いつも
の」が含まれているため、信頼度は+2となる。ユーザ
がコマンド要求を行った曜日と時間帯を元に、実行履歴
推論部38は実行履歴データベース36に記録された過
去の実行履歴から、ユーザがその曜日と時間帯に見てい
たチャンネルの傾向を分析する。(Specific Example 2) In specific example 2, as shown in the equation (2), the third certainty factor is obtained in consideration of the reliability factor. It is assumed that the user gives an input of “I want to see the usual” to the command processing device 1 installed in the operated device (the television in this specific example). Since the phrase “usual” that can determine that the user trusts the command processing device 1 is included, the reliability is +2. Based on the day of the week and the time zone when the user made the command request, the execution history inference unit 38 uses the past execution history recorded in the execution history database 36 to determine the tendency of the channel that the user saw on the day and the time zone. analyse.
【0048】その結果、図5(a)は、実行履歴推論部
38が分析の結果得た、ユーザが当該曜日の当該時間帯
に見ていたチャンネルの傾向の割合である。過去に、当
該ユーザがこの曜日、この時間帯に見ていたチャンネル
の割合は、1チャンネルが70%、3チャンネルが25
%、12チャンネルが5%であった。第3の確信度を信
頼度を用いて補正しない場合と(具体例1での計算方
法)、信頼度信頼度を+2としてこれらの割合(ユーザ
が当該チャンネルを意図してコマンド要求した確率と推
定できる)を式(2)に代入して、第3の確信度を補正
した場合の値を図5(b)に示す。As a result, FIG. 5 (a) shows the ratio of the tendency of the channel that the user has watched in the corresponding time zone of the day of the week, obtained as a result of the analysis by the execution history inference unit 38. In the past, the percentage of channels that the user had watched during this time of the day on this day was 70% for 1 channel and 25% for 3 channels.
%, 12 channels were 5%. The case where the third certainty is not corrected using the reliability (the calculation method in the specific example 1), and the ratio of the reliability (+2) and the ratio (the probability that the user intentionally requests the command for the channel and the estimation) FIG. 5 (b) shows a value obtained when the third certainty factor is corrected by substituting the above-mentioned value into Expression (2).
【0049】その結果、回答候補「1チャンネルのテレ
ビが見たい」に対する第3の確信度が信頼度によって補
正しない場合は0.42であるのに対し、信頼度によっ
て補正した場合は0.63となって確信度が大きくな
る。逆に信頼度が、例えば−1というように負の値とな
ると信頼度によって補正した第3の確信度は、補正しな
い場合の第3の確信度よりも小さくなる。このように、
第3の確信度、即ち、過去のコマンドの実行履歴から推
論したユーザの確信度を、ユーザがコマンド処理装置1
に対して抱いている信頼度を用いて修正することにより
推論の精度を高めることができる。As a result, the third certainty factor for the answer candidate “I want to watch one-channel television” is 0.42 when not corrected by the reliability, and 0.63 when corrected by the reliability. And the degree of certainty increases. Conversely, when the reliability becomes a negative value, for example, -1, the third certainty corrected by the reliability becomes smaller than the third certainty without correction. in this way,
The third certainty factor, that is, the user's certainty factor inferred from the past command execution history,
The accuracy of the inference can be increased by modifying the reliability using the reliability held for.
【0050】図6は、確信度コンポーネント23が行う
処理手順を示したフローチャートである。まず、図2の
言語解析処理コンポーネント22から文構造情報を取得
する(ステップ10)。次に、事例照合処理部32で、
文構造情報から得られる入力文と事例辞書33の事例文
から最も類似する文を比較し、欠落情報の有無を判断し
た後、実行コマンド情報を状態情報推論部37に送出す
る(ステップ20)。また、事例照合処理部32は、入
力文と事例文を比較することにより第1の確信度を取得
し、確信度情報決定部39に送出する(ステップ3
0)。次に、状態情報推論部37が、被操作装置の状態
情報を状態情報データベース35から取得し、事例照合
済みの実行コマンド情報に対して欠落情報の推測及び補
完を行い(ステップ40)、補完済み実行コマンド情報
1を作成する(ステップ50)と共に第2の確信度を確
信度情報決定部39に送出する(ステップ;60)。FIG. 6 is a flowchart showing a processing procedure performed by the certainty component 23. First, sentence structure information is acquired from the language analysis processing component 22 of FIG. 2 (step 10). Next, in the case matching processing unit 32,
The input sentence obtained from the sentence structure information is compared with the most similar sentence from the case sentences in the case dictionary 33 to determine the presence or absence of missing information, and then the execution command information is sent to the state information inference unit 37 (step 20). Further, the case matching processing unit 32 obtains the first certainty factor by comparing the input sentence and the case sentence, and sends the first certainty factor to the certainty factor information determining unit 39 (step 3).
0). Next, the state information inference unit 37 acquires the state information of the operated device from the state information database 35, estimates and complements missing information for the execution command information that has been case-matched (step 40), and completes the completion. The execution command information 1 is created (step 50), and the second certainty is sent to the certainty information determining unit 39 (step; 60).
【0051】次に、実行履歴推論部38が実行履歴デー
タベース36の実行履歴を用いて、事例照合処理部32
から送信されたきた実行コマンド情報に対し、実行履歴
推論処理を行う(ステップ70)。実行履歴推論部38
は、実行コマンド情報に欠落している情報を推測補完し
て補完済み実行コマンド情報2を作成する(ステップ8
0)。また、第3の確信度を算出して確信度情報決定部
39に送出する(ステップ90)。Next, the execution history inference unit 38 uses the execution history of the execution history database 36 to execute the case matching processing unit 32.
An execution history inference process is performed on the execution command information transmitted from the server (step 70). Execution history inference unit 38
Creates the completed execution command information 2 by guessing and complementing the information missing in the execution command information (step 8)
0). In addition, a third certainty factor is calculated and sent to the certainty factor information determining unit 39 (step 90).
【0052】次に、確信度情報決定部39は、各確信度
を相互比較し、第1の確信度が最も大きい場合は(ステ
ップ100;Y)、第1の確信度を確信度情報として応
答文作成コンポーネント25に送出する(ステップ16
0)。確信度決定部39は、更に第2、第3の確信度の
大きさを比較し(ステップ170)、第2の確信度が第
3の確信度より大きい場合は(ステップ170;Y)、
欠落情報推論部34は実行コマンド情報1を応答文作成
コンポーネント25に送出する(ステップ150)。第
3の確信度が第2の確信度より大きい場合は(ステップ
170;N)、欠落情報推論部34は実行コマンド情報
2を応答文作成コンポーネント25に送出する(ステッ
プ130)。Next, the certainty information determiner 39 compares the respective certainties with each other. If the first certainty is the largest (step 100; Y), the first certainty is returned as the certainty information. (Step 16)
0). The certainty factor determination unit 39 further compares the magnitudes of the second and third certainty factors (step 170). If the second certainty factor is larger than the third certainty factor (step 170; Y),
The missing information inference unit 34 sends the execution command information 1 to the response sentence creation component 25 (step 150). When the third certainty is larger than the second certainty (Step 170; N), the missing information inference unit 34 sends the execution command information 2 to the response sentence creation component 25 (Step 130).
【0053】一方、確信度情報決定部39が比較した結
果、第2の確信度が最も大きい場合(ステップ110;
Y)、確信度情報決定部39は、第2の確信度を応答文
作成コンポーネント25に送出し(ステップ140)、
欠落情報推論部34は、実行コマンド情報1を応答文作
成コンポーネント25に送出する(ステップ150)。On the other hand, as a result of the comparison by the certainty factor information decision unit 39, the second certainty factor is the highest (step 110;
Y), the certainty factor information determination unit 39 sends the second certainty factor to the response sentence creation component 25 (step 140),
The missing information inference unit 34 sends the execution command information 1 to the response sentence creation component 25 (Step 150).
【0054】確信度情報決定部39が比較した結果、第
3の確信度が最も大きい場合(ステップ110;N)、
確信度情報決定部39は、第3の確信度を応答文作成コ
ンポーネント25に送出し(ステップ120)、欠落情
報推論部34は、実行コマンド情報2を応答文作成コン
ポーネント25に送出する(ステップ130)。If the third certainty is the largest as a result of the comparison by the certainty information determining unit 39 (step 110; N),
The certainty information determination unit 39 sends the third certainty to the response sentence creation component 25 (step 120), and the missing information inference unit 34 sends the execution command information 2 to the response sentence creation component 25 (step 130). ).
【0055】次に、図2に示した心理的距離感コンポー
ネント24の機能について説明する。心理的距離感コン
ポーネント24は、ユーザ発話(ユーザがコマンド処理
装置1に対して発した文)中に含まれる動詞の末尾など
を用いて、当該ユーザがコマンド処理装置1に対して抱
いている心理的な距離感を数値化する。本実施の形態で
は、標準的な心理的距離感を0、疎遠な心理的距離感を
−2、親密な心理的距離感を+2で表わし、例えば−2
から+2までの整数で、心理的距離感を5段階に区分し
た。Next, the function of the psychological distance component 24 shown in FIG. 2 will be described. The psychological distance component 24 uses the end of a verb included in the user's utterance (a sentence that the user has uttered to the command processing device 1), and the like, and the psychological sense of the user with respect to the command processing device 1. Quantitative sense of distance. In the present embodiment, the standard psychological distance sense is represented by 0, the distant psychological distance sense is represented by -2, and the intimate psychological distance sense is represented by +2.
The sense of psychological distance was divided into five levels by integers from to +2.
【0056】そして、例えば、「〜していただけません
か」という丁寧な依頼表現より「〜してね」というくだ
けた表現のほうがユーザのコマンド処理装置1に対する
心理的距離が小さくなるといった情報を数値化してテー
ブル化しておく。このテーブルは図1のデータベース部
16に記憶しておく。そして、ユーザがコマンド要求し
た際に、該当する表現を検索してユーザの抱く心理的距
離感を数値化する。Then, for example, information that the psychological distance of the user to the command processing apparatus 1 is smaller in the informal expression of “to do it” than in the polite request expression of “can you do it?” Numerical values are stored in a table. This table is stored in the database unit 16 of FIG. Then, when the user requests a command, the corresponding expression is searched to quantify the psychological distance sensed by the user.
【0057】図7は、依頼表現における動詞の末尾表現
に着目して、ユーザがコマンド処理装置1に対して抱い
ている心理的距離感を数値化したテーブルの一例を示し
たものである。ユーザのコマンド要求発話の末尾表現が
「〜していただけませんか」となった場合、ユーザがコ
マンド処理装置1に抱いている心理的距離を数値化した
値が最も大きく、これを心理的距離感コンポーネント2
4で数値化すると最小の−2となる。同様に末尾表現が
「〜してください」或いは「〜してくれませんか」とな
った場合は、数値化された心理的距離感は−1となる。FIG. 7 shows an example of a table in which the feeling of psychological distance held by the user with respect to the command processing apparatus 1 is quantified, paying attention to the ending expression of the verb in the request expression. When the end expression of the user's command request utterance is “can you do it?”, The numerical value of the psychological distance held by the user in the command processing device 1 is the largest, and this is the psychological distance. Feeling component 2
Numerical conversion with 4 results in a minimum of -2. Similarly, when the end expression is "Please do" or "Would you like to do", the numerically sensed psychological distance is -1.
【0058】同様に末尾表現が「〜したい」或いは「〜
する」となった場合は、心理的距離感を数値化した値は
0となる。そして、末尾表現が「〜して」、「〜して
ね」となるに従い心理的距離感を数値化した値は大きく
なり、それぞれ+1、+2となる。Similarly, the ending expression is “to want” or “to
When "do", the value obtained by digitizing the psychological distance is 0. The numerical value of the psychological distance feeling increases as the tail expression becomes “to do” and “to do”, and becomes +1 and +2, respectively.
【0059】以下に、一例として、テレビに実装された
コマンド処理装置1を用いて、心理的距離感コンポーネ
ント24の具体的な処理手順を例示する。ユーザのコマ
ンド要求発話が「テレビを消してくれませんか」であっ
た場合、心理的距離感コンポーネント24は、図7に示
したテーブルを検索し、当該テーブルの「〜してくれま
せんか」という末尾表現にマッチすると判断する。次
に、心理的距離コンポーネント24はこの末尾表現に対
応する心理的距離感を数値化した値−1を取得する。そ
して、この数値を応答文作成コンポーネント25に対し
て出力する。同様にして、ユーザのコマンド要求発話が
「テレビを消して」であった場合、動詞の末尾表現が図
7のテーブルの「〜して」とマッチし、心理的距離感を
数値化した値は+1となる。Hereinafter, as an example, a specific processing procedure of the psychological distance component 24 will be described using the command processing device 1 mounted on a television. If the user's command request utterance is “Can you turn off the television?”, The psychological distance component 24 searches the table shown in FIG. Is determined to match the end expression. Next, the psychological distance component 24 obtains a value -1 obtained by digitizing the psychological distance feeling corresponding to the end expression. Then, this numerical value is output to the response sentence creation component 25. Similarly, when the user's command request utterance is “turn off TV”, the verb end expression matches “to do” in the table of FIG. 7, and the value obtained by numerically expressing the sense of psychological distance is It becomes +1.
【0060】また、ユーザがコマンド処理装置1に対し
て抱く心理的距離感は、動詞の末尾表現以外の語句にユ
ーザの抱いている心理的距離感を判定できる語句があれ
ば、この語句によっても数値化することができる。例え
ば、ユーザによる依頼表現の前に「すみませんが・・
・」、「申し訳ありませんが・・・」などのへりくだっ
た言い回しが付随する場合は、心理的距離感が疎である
として数値を例えば−1とする。The psychological distance sensed by the user with respect to the command processing device 1 can be determined by the words other than the end expression of the verb, if the words can be used to determine the psychological distance sensed by the user. Can be quantified. For example, before the user's request expression,
・ ”,“ I'm sorry ... ”, etc., and the numerical value is set to −1, for example, because the psychological sense of distance is sparse.
【0061】また、ユーザがコマンド処理装置1につけ
た愛称が「ラビット」である場合に、ユーザがコマンド
処理装置1に対する呼びかけが「ラビットさん」である
ときは、心理的距離感の値を+1とし、「ラビットちゃ
ん」、「ラビット君」であるときは+2であるというよ
うに、ユーザのコマンド処理装置1に対する呼びかけ語
句によって心理的距離感を数値化することもできる。When the nickname given to the command processing device 1 by the user is "Rabbit" and the user calls on the command processing device 1 "Mr. Rabbit", the value of the psychological distance is set to +1. , "Rabbit-chan" and "Rabbit-kun" are +2, and the sense of psychological distance can also be quantified by the words of the user's call to the command processing device 1.
【0062】次に、図2の応答文作成コンポーネント2
5が、確信度情報、実行コマンド情報及び心理的距離感
情報を用いて応答文26を作成する方法について説明す
る。発話内容は実行コマンド情報によって決定され、発
話内容の表現方法は、確信度情報と心理的距離感情報か
ら決定される。更に具体的には、発話内容の決定は、従
来例のコマンド処理装置と同様に、実行コマンド情報と
対応する発話内容を検索して生成する。表現の方法の決
定は、得られた発話内容を、確信度情報と心理的距離感
情報を元にして、コマンド実行前確認を行うか、或いは
事後報告だけにするかを決定すると共に、発話の語尾や
言い回しの変化を決定する。Next, the response sentence creation component 2 shown in FIG.
5 describes a method of creating the response sentence 26 using the certainty factor information, the execution command information, and the psychological distance feeling information. The utterance content is determined by the execution command information, and the method of expressing the utterance content is determined from the certainty factor information and the psychological distance information. More specifically, the utterance content is determined by searching the utterance content corresponding to the execution command information, similarly to the command processing device of the conventional example. The method of expression is determined based on the certainty factor information and the psychological distance information based on the obtained utterance content, whether to perform the pre-command execution confirmation or only the post-report, and to determine the utterance content. Determine changes in endings and phrases.
【0063】応答文作成コンポーネント25が発話内容
と表現方法を決定する具体例について説明する。確信度
情報と心理的距離感情報から表現方法を決定するため
に、例えば図8に示したようなテーブルを作成し、図1
のデータベース部16に記憶しておく。ここで、確信度
の欄に示した4段階の確信度「低」、「中」、「高」、
「最高」は、一例として以下のように区分した。 最高・・・(確信度)=1.0 高・・・0.7≦(確信度)<1.0 中・・・0.4≦(確信度)<0.7 低・・・(確信度)<0.4A specific example in which the response sentence creation component 25 determines the utterance content and the expression method will be described. In order to determine an expression method from the certainty factor information and the psychological distance feeling information, for example, a table as shown in FIG.
Is stored in the database unit 16. Here, the four levels of confidence shown in the column of confidence are “low”, “medium”, “high”,
“Highest” was classified as follows as an example. Maximum ... (confidence) = 1.0 High ... 0.7≤ (confidence) <1.0 Medium ... 0.4≤ (confidence) <0.7 Low ... (confidence) Degree) <0.4
【0064】図8に示したテーブルから分るように、こ
の具体例では、応答文作成コンポーネント25は、心理
的距離感情報から得られる心理的距離感を表わす値と確
信度情報から得られる確信度を表わす値の組み合わせか
ら応答文26を作成する。例えば、確信度が中で心理的
距離感が0であった場合、応答文26の末尾は「〜しま
すか」となり、確信度が「低」で心理的距離感が+2で
ある場合、応答文26の末尾は「〜してみるとか」とな
る。他の確信度と心理的距離感の組み合わせについても
同様にして、図8のテーブルにしたがって、応答文の末
尾表現を変化させる。As can be seen from the table shown in FIG. 8, in this specific example, the response sentence creation component 25 includes a value representing the psychological distance sense obtained from the psychological distance sense information and a confidence value obtained from the certainty factor information. The response sentence 26 is created from a combination of values representing degrees. For example, if the confidence is medium and the psychological distance is 0, the end of the response sentence 26 is “Do you want to do?”. If the confidence is “low” and the psychological distance is +2, The end of the sentence 26 is "Try it out." Similarly for other combinations of certainty and psychological distance, the tail expression of the response sentence is changed according to the table of FIG.
【0065】なお、応答文26は、ユーザに対しするコ
マンド実行前確認発話、又はコマンド実行後の事後報告
発話として使用される。確信度が「低」、「中」、
「高」である応答文26は、コマンド実行前確認発話と
して使用され、確信度が「最高」である応答文26は事
後報告発話として使用される。The response sentence 26 is used as a confirmation utterance before the command execution for the user or a post-report utterance after the command execution. If the confidence is low, medium,
The response sentence 26 of “high” is used as a pre-command execution confirmation utterance, and the response sentence 26 of which the confidence is “highest” is used as a post-report utterance.
【0066】応答文作成コンポーネント25は、図8に
示したテーブルに従って、ユーザ発話から取得された心
理的距離感と同じレベルで応答文26を作成するのみな
らず、ユーザ発話から取得された心理的距離感と異なる
レベルで応答文26を作成することもできる。ユーザ発
話から取得された心理的距離感と同じレベルで応答文2
6を作成する場合は、次のようになる。ユーザが「テレ
ビを消してくれませんか」というコマンド要求を行った
場合、発話内容は「テレビを消す」、確信度は「最
高」、心理的距離感は−1となる。応答文26は、図8
のテーブルに従って「テレビを消しました」という事後
報告発話となる。According to the table shown in FIG. 8, the response sentence creation component 25 not only creates the response sentence 26 at the same level as the psychological distance sense acquired from the user utterance, but also creates the response sentence 26 acquired from the user utterance. The response sentence 26 can be created at a level different from the sense of distance. Answer sentence 2 at the same level as the psychological distance sense obtained from the user utterance
6 is as follows. When the user issues a command request to "turn off the television", the utterance content is "turn off the television", the certainty factor is "highest", and the psychological distance is -1. The response sentence 26 corresponds to FIG.
According to the table, the ex-post report utterance "Turn off the TV" is made.
【0067】一方、ユーザ発話から取得された心理的距
離感と異なるレベルで応答文26を作成する場合は、例
えば次のようにすることができる。ユーザがテレビに対
して「消してね」とコマンド要求した場合、発話内容は
「消す」、確信度は「低」、心理的距離感は+2となる
が、心理的距離度が−1に対応する「テレビを消してみ
てはいかがですか」というへりくだった表現にする。On the other hand, when the response sentence 26 is created at a level different from the psychological distance sense acquired from the user's utterance, for example, the following can be performed. When the user requests the TV to “turn off”, the utterance content is “turn off”, the confidence is “low”, the psychological distance is +2, but the psychological distance corresponds to −1. Make a humble expression such as "How about turning off the TV?"
【0068】次に、上のように構成されたコマンド処理
装置1とユーザの対話例を4つ、音声ワープロに実装さ
れた場合を例にとって、従来のコマンド処理装置との対
話例と共に示す。また、表記中の→によって、そのコマ
ンド要求が行われたときのコマンド処理装置1が取得し
た確信度や心理的距離感などを示す。まず、確信度の利
用例として、ユーザの確信度が高い場合の対話例を示
す。 (従来のコマンド処理装置とユーザとの対話例) ユーザ:波線を引きたい。 →確信度:最高 処理装置:「波線を引く」を実行します。よろしいです
か? ユーザ:はい。 ユーザの返答の後に被操作装置(音声ワープロ)が波線
を引く。(本実施の形態のコマンド処理装置とユーザと
の対話例) ユーザ:波線を引きたい。 →確信度:最高 被操作装置(音声ワープロ)が波線を引く。 処理装置:波線を引きました。 この対話例では、ユーザがの発話内容の確信度が最高で
あるため、コマンド処理装置1は、コマンド実行前確認
は行わず、事後報告を行う。Next, four examples of interaction between the command processing device 1 configured as described above and the user will be described together with an example of interaction with a conventional command processing device, taking a case where the command processing device 1 is implemented in a voice word processor as an example. In addition, “→” in the notation indicates a certainty factor, a sense of psychological distance, or the like acquired by the command processing device 1 when the command request is made. First, as a usage example of the certainty factor, a dialogue example when the user's certainty factor is high will be described. (Example of dialogue between conventional command processing device and user) User: I want to draw a wavy line. → Confidence: Highest Processing unit: Execute "Draw a wavy line". Is it OK? User: Yes. The operated device (voice word processor) draws a wavy line after the response from the user. (Example of Interaction between User and Command Processing Device of Present Embodiment) User: I want to draw a wavy line. → Confidence: Highest The operated device (voice word processor) draws a wavy line. Processing equipment: The wavy lines are drawn. In this example of the dialogue, since the certainty degree of the utterance content of the user is the highest, the command processing device 1 does not perform the pre-command execution confirmation, but does the post-report.
【0069】次に、確信度の利用例として、確信度が低
い場合の対話例を示す。(従来のコマンド処理装置とユ
ーザとの対話例) ユーザ:目立たせたい。 →確信度:低 処理装置:どのコマンドを実行しますか? この後に被操作装置(音声ワープロ)がコマンド候補の
ダイヤログを表示する。(本実施の形態のコマンド処理
装置とユーザとの対話例で、確信度が最も高い候補を示
す場合) ユーザ:目立たせたい。 →確信度:低 処理装置:文字を大きくしてみてはどうですか? (本実施の形態のコマンド処理装置とユーザとの対話例
で、確信度が高い候補をいくつか例示して示す場合) ユーザ:目立たせたい。 →確信度:低 処理装置:文字を大きくしてみるとか、色をつけてみる
とか、線を引いてみるなんていうのもありますよ。Next, as an example of the use of the certainty factor, an example of the dialogue when the certainty factor is low will be described. (Example of Dialogue between Conventional Command Processing Device and User) User: Want to stand out. → Low confidence: Processing unit: Which command should be executed? Thereafter, the operated device (voice word processor) displays a dialog of command candidates. (In the case where the command processing apparatus of the present embodiment and the user show a candidate with the highest certainty factor in a dialogue example) User: Want to stand out. → Confidence: Low Processing unit: Why don't you enlarge the characters? (In the case of a dialogue example between the command processing device and the user according to the present embodiment, some candidates having a high degree of certainty are exemplarily shown.) User: Want to stand out. → Confidence: Low Processing unit: Try to enlarge the text, add color, or draw a line.
【0070】次に、心理的距離感の利用例として、心理
的距離感が小さい場合の対話例を示す。(従来のコマン
ド処理装置とユーザとの対話例) ユーザ:ラビットちゃん。波の線だってば。 →心理的
距離感:+2 処理装置:「波線を引く」を実行します。よろしいです
か? ユーザ:うん、いいよ。 この後に被操作装置(音声ワープロ)が波線を引く。
(本実施の形態のコマンド処理装置とユーザとの対話
例) ユーザ:ラビットちゃん。波線だってば〜。 →心理的
距離感:+2 処理装置:波線引いていいかな? ユーザ:うん。いいよ。 この後に被操作装置(音声ワープロ)が波線を引く。Next, as an example of using the sense of psychological distance, an example of dialogue when the sense of psychological distance is small will be described. (Example of dialogue between the conventional command processing device and the user) User: Rabbit. If it's a wave line. → Psychological sense of distance: +2 Processing unit: Executes “draw a wavy line”. Is it OK? User: Yeah, good. Thereafter, the operated device (voice word processor) draws a wavy line.
(Example of dialogue between the command processing device of this embodiment and the user) User: Rabbit. Even if it's a wavy line. → Psychological sense of distance: +2 Processing unit: Can I draw a wavy line? User: Yeah. OK. Thereafter, the operated device (voice word processor) draws a wavy line.
【0071】次に、ユーザのコマンド要求発話から得ら
れる信頼度により確信度が上昇する場合の対話例につい
て述べる。なお、ユーザは、通常文書を目立たせる手段
として波線を引いているものとする。(本実施の形態の
コマンド処理装置とユーザとの対話例) ユーザ:これ目立たせたいんだけど・・・。 →確信
度:低 処理装置:文字を大きくしてみてはいかがですか? →
確信度:低 ユーザ:いつものやり方でやってよ。 →信頼度:+2
(これによって確信度上昇) 処理装置:じゃあ、波線を引きますね。 →確信度:高 ユーザ:うん。お願い。 この後に被操作装置(音声ワープロ)が波線を引く。Next, an example of the dialogue in the case where the confidence increases due to the reliability obtained from the user's command request utterance will be described. It is assumed that the user normally draws a wavy line as a means for making the document stand out. (Example of interaction between user and command processing device of the present embodiment) User: I want to make this stand out. → Confidence: Low Processing unit: Why don't you enlarge the characters? →
Confidence: Low User: Do it the usual way. → Reliability: +2
(This increases confidence.) Processor: Then, draw a wavy line. → Confidence: High User: Yeah. Please. Thereafter, the operated device (voice word processor) draws a wavy line.
【0072】以上の音声ワープロの例では、心理的距離
感は、ユーザのコマンド要求発話の内容から判断した
が、これに限定するものではなく、例えば、ユーザが心
理的距離感「−2」を選択すると、コマンド処理装置1
は、常に「−2」の心理的距離感で応答するというよう
に、ユーザが選択できるように構成することができる。
これは、例えば、丁寧な言葉遣いが要求される顧客と対
話するネットショッピングサーバに適用することができ
る。以下に、ユーザがネットショッピングサーバに実装
されたコマンド処理装置1と対話する例を示す。 ユーザ:セーターが見たいんだけれど。 処理装置:どのようなセーターでございますか? →心
理的距離感:−2 ユーザ:男物で、素材がウールのやつがいいんだけれ
ど。 処理装置:こちらなどいかがでしょうか? →心理的距
離感:−2 この後に、ユーザの端末装置にネットショッピングサー
バによってセーターの写真が表示される。 ユーザ:うーん。赤じゃなくて、青系がいいな。 処理装置:青系でございますね。それではこちらなどい
かがでしょうか? → 心理的距離感:−2 この後に、ユーザの端末装置にネットショッピングサー
バによって別のセーターの写真が表示される。In the above example of a voice word processor, the sense of psychological distance was determined from the content of the user's command request utterance. However, the present invention is not limited to this. When selected, the command processing device 1
Can be configured so that the user can select such that the user always responds with a sense of psychological distance of “−2”.
This can be applied, for example, to an online shopping server that interacts with customers who require polite language. Hereinafter, an example in which the user interacts with the command processing device 1 mounted on the online shopping server will be described. User: I want to see a sweater. Processing equipment: What kind of sweater do you have? → Psychological distance: -2 User: Men's, wool-made material is good. Processing equipment: How about this one? → Psychological distance: -2 After this, a picture of the sweater is displayed on the user's terminal device by the net shopping server. User: Hmm. I like blue instead of red. Processing equipment: Blue. Then how about this one? → Psychological distance: -2 After this, another sweater picture is displayed on the user's terminal device by the net shopping server.
【0073】図9は、コマンド処理装置1の動作手順を
示したフローチャートである。まず、コマンド処理装置
1に接続された外部入力装置であるマイク9やキーボー
ド(図1)などを介して、コマンド処理装置1はユーザ
のコマンド要求発話(入力文)を取得する(ステップ2
10)。次に、図2に示した言語解析処理コンポーネン
ト22は、入力文を解析して文構造情報を取得する。次
に、文構造情報は、確信度コンポーネント23と心理的
距離感コンポーネント24に入力される。FIG. 9 is a flowchart showing the operation procedure of the command processing device 1. First, the command processing device 1 acquires a user's command request utterance (input sentence) via an external input device such as a microphone 9 or a keyboard (FIG. 1) connected to the command processing device 1 (step 2).
10). Next, the language analysis processing component 22 shown in FIG. 2 analyzes the input sentence and acquires sentence structure information. Next, the sentence structure information is input to the certainty component 23 and the psychological distance component 24.
【0074】確信度コンポーネント23では、文構造情
報から実行コマンド情報を取得すると共に(ステップ2
30)、確信度情報を取得する(ステップ240)。一
方、心理的距離感コンポーネント24は、文構造情報か
ら心理的距離感情報を取得する(ステップ250)。次
に、応答文作成コンポーネント25は、確信度コンポー
ネント23から確信度情報と実行コマンド情報を取得
し、心理的距離感コンポーネント24からは心理的距離
感情報を取得して、これらの情報に基づいた応答分26
を作成する(260)。The certainty component 23 acquires execution command information from the sentence structure information (step 2).
30), obtain certainty factor information (step 240). On the other hand, the psychological distance component 24 acquires psychological distance information from the sentence structure information (step 250). Next, the response sentence creation component 25 acquires the certainty factor information and the execution command information from the certainty factor component 23, and acquires the psychological distance sense information from the psychological sense of distance component 24, and based on these information. Response 26
Is created (260).
【0075】以上に説明した本実施の形態では、以下の
ような効果が得られる。まず、確信度を利用することに
より、コマンド実行前確認を行う必要があるか否かを判
断することができ、ユーザに与えるストレスを軽減する
ことができる。また、ユーザのコマンド要求発話から得
られた確信度が低い場合であっても、例えば「背景を青
にしてみますか」といったように、対話によるコマンド
の提案が可能となる。更に、「いつものようにやって」
などと、ユーザが具体的に目的のコマンドを伝えなくて
も、過去のコマンドの実行履歴からユーザの意図を推測
して応答することができる。In the present embodiment described above, the following effects can be obtained. First, by using the certainty factor, it is possible to determine whether or not it is necessary to perform a pre-command execution check, and it is possible to reduce stress applied to the user. Further, even when the degree of certainty obtained from the user's command request utterance is low, it is possible to propose a command by dialogue, for example, "Would you like to change the background to blue?" In addition, "Do as usual"
For example, even if the user does not specifically convey the target command, it is possible to respond by inferring the user's intention from the past command execution history.
【0076】加えて、ユーザのコマンド要求発話から心
理的距離感を数値化することにより、コマンド処理装置
1は、それに応じて様様な文末表現やニュアンスを持っ
た応答文を返すことが可能になり、単調で機械的な対話
を行わなくてすむようになる。例えば、心理的距離感を
表す数値が大きい、即ちユーザが被操作装置に対して抱
いている心理的な距離感が小さい対話を望むユーザには
よりフレンドリーな対話が可能となる。また、ユーザか
らのコマンド要求発話にコマンド実行のための情報が不
足している場合でも、過去のコマンド実行履歴などから
ユーザが意図したコマンドを推測して対応することがで
きる。In addition, by digitizing the feeling of psychological distance from the user's command request utterance, the command processing device 1 can return a response sentence having various sentence end expressions and nuances accordingly. This eliminates the need for monotonous and mechanical dialogue. For example, a user who desires a dialogue with a large numerical value representing a sense of psychological distance, that is, a user who has a small sense of psychological distance with the operated device, can perform a more friendly conversation. Further, even when information for command execution is insufficient in the command request utterance from the user, it is possible to respond by estimating the command intended by the user from the past command execution history or the like.
【0077】本実施の形態では、コマンド処理装置1を
一例として、テレビと音声ワープロに実装したが、これ
に限定するものではなく、例えば、電子レンジ、炊飯
器、洗濯機などの他の家電製品やCAD(Comput
er Aided Design)などの他のコンピュ
ータソフトウェアなどに適用することもできる。更に、
コマンド処理装置1をサーバに実装し、インターネット
などのネットワークを介したサーバとユーザとの対話に
使用することもできる。また、デジタルテレビに実装し
て、デジタルテレビとキャリヤ(放送局など)との双方
向通信を行う際のヒューマンインターフェースとするこ
ともできる。In the present embodiment, the command processing device 1 is implemented as an example in a television and an audio word processor. However, the present invention is not limited to this. For example, other home appliances such as a microwave oven, a rice cooker, and a washing machine may be used. And CAD (Computing
The present invention can also be applied to other computer software such as er Aided Design. Furthermore,
The command processing device 1 can be mounted on a server and used for interaction between the server and a user via a network such as the Internet. It can also be implemented in a digital television to provide a human interface for performing bidirectional communication between the digital television and a carrier (such as a broadcasting station).
【0078】また、コマンド処理装置1は、例えば、ベ
ッド、ロボット、自動車なども考えられる。例えば、コ
マンド処理装置1を装備したベッドはユーザのコマンド
要求発話によって、ベットの表面の角度を変化させたり
でき、介護用ベッドなどに有効である。又、コマンド処
理装置1を装備したロボットをユーザのコマンド要求発
話によって操縦することができる。また、コマンド処理
装置1を装備した自動車は、ユーザのコマンド要求発話
により、例えばヘッドライトの点灯、消灯やワイパーの
操作、エンジンの始動と停止、エアコンの操作など、従
来ユーザが手動にて行っていた操作を行うことがででき
る。The command processing device 1 may be, for example, a bed, a robot, a car, or the like. For example, a bed equipped with the command processing device 1 can change the angle of the surface of the bed in response to a user's command request utterance, and is effective for a nursing bed or the like. Further, the robot equipped with the command processing device 1 can be operated by a user's command request utterance. Also, in a vehicle equipped with the command processing device 1, a user conventionally manually performs, for example, turning on / off a headlight, operating a wiper, starting and stopping an engine, operating an air conditioner, and the like, according to a user's command request utterance. Operations can be performed.
【0079】[0079]
【発明の効果】本発明によれば、ユーザの要求を的確に
把握してユーザの入力負担を小さくし、ユーザが装置に
対して抱いている心理的距離を考慮した対話が可能なコ
マンド処理装置、コマンド処理方法、及びコマンド処理
プログラムを提供することができる。According to the present invention, a command processing device capable of accurately grasping a user's request, reducing a user's input burden, and enabling a dialog taking into account a psychological distance held by the user with respect to the device. , A command processing method, and a command processing program.
【図1】本実施の形態におけるコマンド処理装置の構成
の一例を示した図である。FIG. 1 is a diagram showing an example of a configuration of a command processing device according to the present embodiment.
【図2】コマンド処理装置の各機能を構成する構成要素
を示した図である。FIG. 2 is a diagram showing components constituting each function of the command processing device.
【図3】確信度コンポーネントの構成を示した図であ
る。FIG. 3 is a diagram showing a configuration of a certainty factor component.
【図4】状態情報推論部で得られる回答候補とその確信
度などを示した図である。FIG. 4 is a diagram showing answer candidates obtained by a state information inference unit and their certainty factors;
【図5】実行履歴推論部が、分析の結果得た、ユーザが
当該曜日の当該時間帯に見ていたチャンネルの傾向の割
合などを示した図である。FIG. 5 is a diagram showing, for example, a ratio of a tendency of a channel watched by the user during the time period on the day of the week, obtained by the execution history inference unit as a result of the analysis.
【図6】確信度コンポーネントが行う処理手順を示した
フローチャートである。FIG. 6 is a flowchart illustrating a processing procedure performed by a certainty component.
【図7】心理的距離感を数値化したテーブルの一例を示
したものである。FIG. 7 shows an example of a table in which a sense of psychological distance is quantified.
【図8】発話内容と表現方法を決定するためのテーブル
の一例を示した図である。FIG. 8 is a diagram showing an example of a table for determining an utterance content and an expression method.
【図9】コマンド処理装置の動作の手順を示したフロー
チャートである。FIG. 9 is a flowchart showing a procedure of an operation of the command processing device.
【図10】従来のIIF解析エンジンの構成の一例を示
した図である。FIG. 10 is a diagram showing an example of a configuration of a conventional IIF analysis engine.
1 コマンド処理装置 2 中央処理装置 3 バスライン 4 RAM 5 ROM 7 記憶装置 8 入力部 9 マイク 10 その他入力機器 11 出力部 12 機器制御部 13 ディスプレイ 14 スピーカ 15 プログラム部 16 データベース部 21 入力文 22 言語解析処理コンポーネント 23 確信度コンポーネント 24 心理的距離感コンポーネント 25 応答文作成コンポーネント25 26 応答文 31 文構造情報 32 事例照合処理部 33 事例辞書 34 欠落情報推論部 35 状態情報データベース 36 実行履歴データベース 37 状態情報推論部 38 実行履歴推論部 39 確信度情報決定部 40 確信度情報 41 実行コマンド情報 REFERENCE SIGNS LIST 1 Command processing device 2 Central processing unit 3 Bus line 4 RAM 5 ROM 7 Storage device 8 Input unit 9 Microphone 10 Other input device 11 Output unit 12 Device control unit 13 Display 14 Speaker 15 Program unit 16 Database unit 21 Input sentence 22 Language analysis Processing component 23 Confidence component 24 Psychological sense of distance component 25 Response sentence creation component 25 26 Response sentence 31 Sentence structure information 32 Case matching processing unit 33 Case dictionary 34 Missing information inference unit 35 State information database 36 Execution history database 37 State information inference Unit 38 execution history inference unit 39 certainty information determining unit 40 certainty information 41 execution command information
───────────────────────────────────────────────────── フロントページの続き (51)Int.Cl.7 識別記号 FI テーマコート゛(参考) G10L 15/28 G10L 3/00 571Z ──────────────────────────────────────────────────続 き Continued on the front page (51) Int.Cl. 7 Identification symbol FI Theme coat ゛ (Reference) G10L 15/28 G10L 3/00 571Z
Claims (14)
文を取得する入力文取得手段と、 前記入力文取得手段にて取得された入力文からコマンド
情報を取得するコマンド情報取得手段と、 前記コマンド情報取得手段にて取得されたコマンド情報
に実行すべき実行コマンドを特定するのに必要な情報が
不足している場合に、当該不足している情報を推論する
不足情報推論手段と、 前記コマンド情報が前記実行コマンドを特定するのに必
要な情報を備えている場合は、前記コマンド情報から前
記コマンドを特定し、前記コマンド情報に前記実行コマ
ンドを特定するのに必要な情報が不足している場合は、
前記コマンド情報と前記不足情報推論手段にて推論され
た情報を用いて前記実行コマンドを特定する実行コマン
ド特定手段と、 前記実行コマンド特定手段にて特定されたコマンドが、
前記入力文によって意図されたコマンドに一致する程度
を推論する一致度推論手段と、 前記実行コマンド特定手段にて特定された実行コマンド
に対応した応答文を作成する際に、前記一致度推論手段
にて推論された一致の程度に応じて前記応答文の表現を
変化させて作成する応答文作成手段と、 前記応答文作成手段にて作成された応答文を提示する提
示手段と、 を具備したことを特徴とするコマンド処理装置。An input sentence obtaining unit that obtains an input sentence input in a natural language from a user; a command information obtaining unit that obtains command information from the input sentence obtained by the input sentence obtaining unit; When information necessary for specifying an execution command to be executed in the command information acquired by the command information acquisition means is insufficient, insufficient information inference means for inferring the insufficient information; and the command When the information includes information necessary for specifying the execution command, the command is specified from the command information, and the command information lacks information necessary for specifying the execution command. If
An execution command identification unit that identifies the execution command using the command information and the information inferred by the shortage information inference unit; and a command identified by the execution command identification unit,
A matching degree inferring means for inferring a degree matching the command intended by the input sentence, and when creating a response sentence corresponding to the execution command specified by the execution command specifying means, the matching degree inferring means Response sentence creating means for creating the response sentence by changing the expression of the response sentence according to the degree of coincidence inferred, and presentation means for presenting the response sentence created by the response sentence creation means. A command processing device characterized by the above-mentioned.
文を取得する入力文取得手段と、 前記入力文取得手段にて取得された前記入力文から、実
行コマンドを特定する際に用いるコマンド情報を取得す
るコマンド情報取得手段と、 前記入力文取得手段にて取得された前記入力文から、前
記ユーザが前記実行コマンドよって操作される対象に対
して抱いている心理的距離感の程度を推論する心理的距
離感推論手段と、 前記コマンド情報取得手段により取得されたコマンド情
報を用いて特定されたコマンドに対応した応答文を作成
する際に、前記心理的距離感推論手段にて推論された心
理的距離感の程度に応じて前記応答文の表現を変化させ
て作成する応答文作成手段と、 前記応答文作成手段にて作成された応答文を提示する提
示手段と、 を具備したことを特徴とするコマンド処理装置。2. An input sentence obtaining means for obtaining an input sentence input by a user in a natural language, and command information used for specifying an execution command from the input sentence obtained by the input sentence obtaining means. From the input sentence acquired by the input sentence acquiring means, and infers the degree of psychological distance the user has with respect to the target operated by the execution command. A psychological distance feeling inference means, and a psychological inference by the psychological distance feeling inference means when creating a response sentence corresponding to the command specified by using the command information obtained by the command information obtaining means. Response sentence creating means for creating the response sentence by changing the expression of the response sentence according to the degree of a sense of distance, and presentation means for presenting the response sentence created by the response sentence creating means. Command processing apparatus characterized by the.
文を取得する入力文取得手段と、 前記入力文取得手段にて取得された入力文からコマンド
情報を取得するコマンド情報取得手段と、 前記コマンド情報取得手段にて取得されたコマンド情報
に実行すべき実行コマンドを特定するのに必要な情報が
不足している場合に、当該不足している情報を推論する
不足情報推論手段と、 前記コマンド情報が前記実行コマンドを特定するのに必
要な情報を備えている場合は、前記コマンド情報から前
記実行コマンドを特定し、前記コマンド情報に前記実行
コマンドを特定するのに必要な情報が不足している場合
は、前記コマンド情報と前記不足情報推論手段にて推論
された情報を用いて前記実行コマンドを特定する実行コ
マンド特定手段と、 前記入力文から前記ユーザが前記実行コマンドによって
操作される対象に対して抱いている心理的距離感の程度
を推論する心理的距離感推論手段と、 前記実行コマンド特定手段にて特定された実行コマンド
が、前記入力文によって意図されたコマンドに一致する
程度を推論する一致度推論手段と、 前記実行コマンド特定手段にて特定された実行コマンド
に対応した応答文を作成する際に、前記心理的距離感推
論手段にて推論された心理的距離感の程度と前記一致度
推論手段にて推論された一致の程度の内少なくとも一方
を用いて前記応答文の表現を変化させて作成する応答文
作成手段と、 前記応答文作成手段にて作成された応答文を提示する提
示手段と、 を具備したことを特徴とするコマンド処理装置。3. An input sentence obtaining means for obtaining an input sentence input in a natural language from a user; a command information obtaining means for obtaining command information from the input sentence obtained by the input sentence obtaining means; When information necessary for specifying an execution command to be executed in the command information acquired by the command information acquisition means is insufficient, insufficient information inference means for inferring the insufficient information; and the command When the information includes information necessary to specify the execution command, the execution command is specified from the command information, and the command information lacks the information necessary to specify the execution command. If so, execution command specifying means for specifying the execution command using the command information and the information inferred by the shortage information inference means; A psychological distance feeling inference means for inferring a degree of a psychological distance feeling held by the user with respect to an object operated by the execution command, and the execution command specified by the execution command specifying means, A matching degree inferring means for inferring a degree of matching with a command intended by an input sentence; and, when creating a response sentence corresponding to the execution command specified by the execution command specifying means, Response sentence creating means for creating by changing the expression of the response sentence by using at least one of the degree of psychological distance sense inferred at and the degree of coincidence inferred by the coincidence inference means, A command processing device, comprising: a presentation unit that presents a response sentence created by a response sentence creation unit.
備え、 前記不足情報推論手段は、前記コマンド実行の履歴デー
タを用いて前記不足した情報を推論することを特徴とす
る請求項1又は請求項3に記載のコマンド処理装置。4. The apparatus according to claim 1, further comprising history data of past command execution, wherein said shortage information inference means infers the shortage information using the history data of command execution. 3. The command processing device according to 3.
前記入力文取得時における状態を取得する状態取得手段
を更に備え、 前記不足情報推論手段は、前記状態取得手段にて取得さ
れた状態を用いて前記不足した情報を推論することを特
徴とする請求項1又は請求項3に記載のコマンド処理装
置。5. An execution target of the execution command,
The information processing apparatus according to claim 1, further comprising a state acquisition unit that acquires a state at the time of acquiring the input sentence, wherein the shortage information inference unit infers the insufficient information using the state acquired by the state acquisition unit. The command processing device according to claim 1 or 3.
事例文を前記事例文データから取得する類似事例文取得
手段と、を更に備え、 前記一致度取得得手段は、前記入力文の文節と、前記事
例文の文節の一致度を用いて前記一致の程度を推論する
ことを特徴とする請求項1、又は請求項3から請求項5
までの内の何れかに1の請求項に記載のコマンド処理装
置。6. A case sentence data corresponding to a command, and a similar case sentence obtaining unit for obtaining a case sentence most similar to the input sentence obtained by the input sentence obtaining unit from the case sentence data, 6. The method according to claim 1, wherein the matching degree obtaining unit infers the degree of matching using a matching degree between a phrase of the input sentence and a phrase of the case sentence. 7.
The command processing device according to claim 1, wherein
論手段にて不足している情報を推論する際に、当該推論
が正しい確率を用いて前記一致度を推論することを特徴
とする請求項1、又は請求項3から請求項5までの内の
何れかに1の請求項に記載のコマンド処理装置。7. The coincidence inference means inferring the degree of coincidence using a correct probability when the inference information is inferred by the insufficiency information inference means. The command processing device according to claim 1, wherein the command processing device is any one of claims 1 to 3.
事例文を前記事例文データから取得する類似事例文取得
手段と、 前記入力文の文節と前記類似事例文取得手段にて取得し
た前記事例文の文節の一致度を用いた場合の一致の程度
を推論する文節一致度推論手段と、 前記不足情報推論手段にて推論された情報が正しい確率
を用いて一致の程度を推論する確率一致度推論手段と、 前記文節一致度推論手段にて取得した一致度と、前記確
率一致度推論手段にて取得した一致度を比較する比較手
段と、を更に備え、 前記比較手段にて一致の程度が大きいものを推論値とす
ることを特徴とする請求項1、又は請求項3から請求項
5までの内の何れかに1の請求項に記載のコマンド処理
装置。8. The similarity inference means, wherein: a case sentence data corresponding to the execution command; and a similar case acquiring from the case sentence data a case sentence most similar to the input sentence acquired by the input sentence acquiring means. Sentence acquisition means, clause match degree inference means for inferring the degree of match when using the degree of match between the phrase of the input sentence and the phrase of the case sentence acquired by the similar case sentence acquisition means, and the lack information Probability coincidence inference means for inferring the degree of coincidence using the correct probability of the information inferred by the inference means; the coincidence acquired by the phrase coincidence inference means; And comparing means for comparing the degree of coincidence, wherein a value of the degree of coincidence in the comparing means is set as an inferred value. 1 request for any of The command processing device according to the item.
の程度に応じて、前記実行コマンドの実行前に前記ユー
ザに応答文を提示せずに前記実行コマンドの実行を行う
ことを特徴とする請求項1、及び請求項3から請求項8
までの内の何れかの1の請求項に記載されたコマンド処
理装置。9. The execution command is executed without presenting a response sentence to the user before the execution of the execution command, according to the degree of matching inferred by the matching degree inference means. Claim 1 and Claims 3 to 8
A command processing device according to any one of the preceding claims.
作される対象に対して抱いている心理的距離感と対応し
た心理的距離感事例文を用い構成された心理的距離感事
例文データと、 前記入力文取得手段にて取得した入力文と最も類似する
前記心理的距離感事例文を前記心理的距離感事例文デー
タから取得する心理的距離感事例文取得手段と、を更に
備え、 前記心理的距離感推論手段は、前記心理的距離感事例文
取得手段にて取得された事例文に対応する心理的距離感
を推論値とすることを特徴とする請求項2又は請求項3
に記載のコマンド処理装置。10. A sentence of psychological distance example sentence data configured using a psychological distance feeling example sentence corresponding to a psychological distance feeling held by a user with respect to an object operated by the execution command; Further comprising: a psychological distance sense case sentence obtaining unit that obtains the psychological distance sense case sentence most similar to the input sentence obtained by the sentence obtaining unit from the psychological distance sense case sentence data; 4. The feeling inference means, wherein the psychological distance feeling corresponding to the case sentence acquired by the psychological distance feeling example sentence acquisition means is used as an inference value.
2. A command processing device according to claim 1.
力文を取得する第1のステップと、 前記第1のステップにて取得された入力文からコマンド
情報を取得する第2のステップと、 前記第2のステップにて取得されたコマンド情報に実行
すべき実行コマンドを特定するのに必要な情報が不足し
ている場合に、当該不足している情報を推論する第3の
ステップと、 前記第2のステップにて取得したコマンド情報が前記実
行コマンドを特定するのに必要な情報を備えている場合
は、前記コマンド情報から前記コマンドを特定し、前記
コマンド情報に前記実行コマンドを特定するのに必要な
情報が不足している場合は、前記コマンド情報と前記第
3のステップにて推論された情報を用いて前記実行コマ
ンドを特定する第4のステップと、 前記第4のステップにて特定されたコマンドが、前記入
力文によって意図されたコマンドに一致する程度を推論
する第5のステップと、 前記第4のステップにて特定された実行コマンドに対応
した応答文を作成する際に、前記第5のステップにて推
論された一致の程度に応じて前記応答文の表現を変化さ
せて作成する第6のステップと、 前記第6のステップにて作成された応答文を提示する第
7のステップと、 から構成されたことを特徴とするコマンド処理方法。11. A first step of obtaining an input sentence input by a user in a natural language, a second step of obtaining command information from the input sentence obtained in the first step, A third step of inferring the missing information when the information necessary for specifying the execution command to be executed is insufficient in the command information acquired in the second step; If the command information obtained in step 2 includes information necessary for specifying the execution command, the command information is specified from the command information, and the command information is specified in the command information. A fourth step of identifying the execution command using the command information and the information inferred in the third step when the necessary information is insufficient; A fifth step of inferring the degree to which the command specified in the step corresponds to the command intended by the input sentence, and a response sentence corresponding to the execution command specified in the fourth step In doing so, a sixth step of changing the expression of the response sentence according to the degree of matching inferred in the fifth step, and creating the response sentence created in the sixth step 7. A command processing method, comprising: presenting a seventh step;
力文を取得する第1のステップと、 前記第1のステップにて取得された前記入力文から、実
行コマンドを特定する際に用いるコマンド情報を取得す
る第2のステップと、 前記第1のステップにて取得された前記入力文から、前
記ユーザが前記実行コマンドよって操作される対象に対
して抱いている心理的距離感の程度を推論する第3のス
テップと、 前記第2のステップにより取得されたコマンド情報を用
いて特定されたコマンドに対応した応答文を作成する際
に、前記第3のステップにて推論された心理的距離感の
程度に応じて前記応答文の表現を変化させて作成する第
4のステップと、 前記第4のステップにて作成された応答文を提示する第
5のステップと、 から構成されたことを特徴とするコマンド処理方法。12. A first step of obtaining an input sentence input in a natural language from a user, and command information used to specify an execution command from the input sentence obtained in the first step From the input sentence obtained in the first step, and infers a degree of psychological distance sensed by the user with respect to an object operated by the execution command. A third step, and when creating a response sentence corresponding to the command specified by using the command information acquired in the second step, the sense of psychological distance inferred in the third step is A fourth step of changing the expression of the response sentence according to the degree, and a fifth step of presenting the response sentence created in the fourth step. Command processing method and butterflies.
力文を取得する入力文取得機能と、 前記入力文取得機能にて取得された入力文からコマンド
情報を取得するコマンド情報取得機能と、 前記コマンド情報取得機能にて取得されたコマンド情報
に実行すべき実行コマンドを特定するのに必要な情報が
不足している場合に、当該不足している情報を推論する
不足情報推論機能と、 前記コマンド情報が前記実行コマンドを特定するのに必
要な情報を備えている場合は、前記コマンド情報から前
記コマンドを特定し、前記コマンド情報に前記実行コマ
ンドを特定するのに必要な情報が不足している場合は、
前記コマンド情報と前記不足情報推論機能にて推論され
た情報を用いて前記実行コマンドを特定する実行コマン
ド特定機能と、 前記実行コマンド特定機能にて特定されたコマンドが、
前記入力文によって意図されたコマンドに一致する程度
を推論する一致度推論機能と、 前記実行コマンド特定機能にて特定された実行コマンド
に対応した応答文を作成する際に、前記一致度推論機能
にて推論された一致の程度に応じて前記応答文の表現を
変化させて作成する応答文作成機能と、 前記応答文作成機能にて作成された応答文を提示する提
示機能と、 をコンピュータに実現させるためのコマンド処理プログ
ラム。13. An input sentence obtaining function for obtaining an input sentence input in a natural language from a user; a command information obtaining function for obtaining command information from the input sentence obtained by the input sentence obtaining function; When information necessary to specify an execution command to be executed in the command information acquired by the command information acquisition function is insufficient, an insufficient information inference function for inferring the insufficient information, and the command When the information includes information necessary for specifying the execution command, the command is specified from the command information, and the command information lacks information necessary for specifying the execution command. If
An execution command identification function that identifies the execution command using the command information and the information inferred by the shortage information inference function, and a command identified by the execution command identification function,
A matching degree inference function for inferring the degree of matching with the command intended by the input sentence, and when creating a response sentence corresponding to the execution command specified by the execution command specifying function, the matching degree inference function A response sentence creation function for creating the response sentence by changing the expression of the response sentence according to the degree of the match inferred by the computer; Command processing program for causing
力文を取得する入力文取得機能と、 前記入力文取得機能にて取得された前記入力文から、実
行コマンドを特定する際に用いるコマンド情報を取得す
るコマンド情報取得機能と、 前記入力文取得機能にて取得された前記入力文から、前
記ユーザが前記実行コマンドよって操作される対象に対
して抱いている心理的距離感の程度を推論する心理的距
離感推論機能と、 前記コマンド情報取得機能により取得されたコマンド情
報を用いて特定されたコマンドに対応した応答文を作成
する際に、前記心理的距離感推論機能にて推論された心
理的距離感の程度に応じて前記応答文の表現を変化させ
て作成する応答文作成機能と、 前記応答文作成機能にて作成された応答文を提示する提
示機能と、 をコンピュータに実現させるためのコマンド処理プログ
ラム。14. An input sentence obtaining function for obtaining an input sentence input in a natural language from a user, and command information used for specifying an execution command from the input sentence obtained by the input sentence obtaining function. From the input sentence acquired by the command sentence acquisition function obtained by the input sentence acquisition function, and infers the degree of the psychological distance sensed by the user with respect to the target operated by the execution command. When creating a response sentence corresponding to a command specified by using the command information acquired by the command information acquisition function, the psychological inference inferred by the psychological distance inference function. A response sentence creation function that creates the response sentence by changing the expression of the response sentence according to the degree of the sense of distance, and a presentation function that presents the response sentence created by the response sentence creation function. Command processing program for realizing a computer.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2001093238A JP3523213B2 (en) | 2001-03-28 | 2001-03-28 | Command processing device, command processing method, and command processing program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2001093238A JP3523213B2 (en) | 2001-03-28 | 2001-03-28 | Command processing device, command processing method, and command processing program |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2002287793A true JP2002287793A (en) | 2002-10-04 |
JP3523213B2 JP3523213B2 (en) | 2004-04-26 |
Family
ID=18947598
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2001093238A Expired - Fee Related JP3523213B2 (en) | 2001-03-28 | 2001-03-28 | Command processing device, command processing method, and command processing program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP3523213B2 (en) |
Cited By (21)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2005181386A (en) * | 2003-12-16 | 2005-07-07 | Mitsubishi Electric Corp | Device, method, and program for speech interactive processing |
JP2005266769A (en) * | 2003-12-23 | 2005-09-29 | Canon Inc | Data processing apparatus and method |
JP2006145891A (en) * | 2004-11-19 | 2006-06-08 | Pioneer Electronic Corp | Voice processor, voice processing method, voice processing program and recording medium |
JP2006154190A (en) * | 2004-11-29 | 2006-06-15 | Toshiba Corp | Speech movement controller and speech movement control method |
JP2007524928A (en) * | 2003-11-17 | 2007-08-30 | アプテラ・インコーポレイテツド | Multi-platform inference engine and general-purpose grammar language adapter for intelligent speech application execution |
JP2009501387A (en) * | 2005-07-12 | 2009-01-15 | ティブコ ソフトウェア インク | State machine by inference |
JP2011150682A (en) * | 2010-01-22 | 2011-08-04 | Google Inc | Multi-dimensional disambiguation of voice command |
JP2013041579A (en) * | 2011-08-05 | 2013-02-28 | Samsung Electronics Co Ltd | Electronic device and method of controlling the same |
US8706502B2 (en) | 2006-05-31 | 2014-04-22 | Funai Electric Co., Ltd. | Electronic equipment and television receiver utilizing multimodal multifunction voice commands |
US9002714B2 (en) | 2011-08-05 | 2015-04-07 | Samsung Electronics Co., Ltd. | Method for controlling electronic apparatus based on voice recognition and motion recognition, and electronic apparatus applying the same |
US9317605B1 (en) | 2012-03-21 | 2016-04-19 | Google Inc. | Presenting forked auto-completions |
JPWO2013190956A1 (en) * | 2012-06-19 | 2016-05-26 | 株式会社Nttドコモ | Function execution instruction system, function execution instruction method, and function execution instruction program |
US9646606B2 (en) | 2013-07-03 | 2017-05-09 | Google Inc. | Speech recognition using domain knowledge |
JP2018155896A (en) * | 2017-03-17 | 2018-10-04 | ヤマハ株式会社 | Control method and controller |
KR20190016552A (en) * | 2016-06-07 | 2019-02-18 | 구글 엘엘씨 | Nondeterministic task initiation by personal assistant module |
JP2020047101A (en) * | 2018-09-20 | 2020-03-26 | Zホールディングス株式会社 | Communication assistance device, user device, communication assistance method, and program |
JP2020173835A (en) * | 2010-01-18 | 2020-10-22 | アップル インコーポレイテッドApple Inc. | Intelligent automated assistant |
JP2021099378A (en) * | 2019-12-19 | 2021-07-01 | 東芝ライフスタイル株式会社 | Controller |
JP7462995B1 (en) | 2023-10-26 | 2024-04-08 | Starley株式会社 | Information processing system, information processing method, and program |
US12087308B2 (en) | 2010-01-18 | 2024-09-10 | Apple Inc. | Intelligent automated assistant |
JP7554921B2 (en) | 2021-05-17 | 2024-09-20 | グーグル エルエルシー | Enabling natural conversations with automated assistants |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
FR2996399B3 (en) | 2012-09-28 | 2015-05-15 | Samsung Electronics Co Ltd | IMAGE PROCESSING APPARATUS AND CONTROL METHOD THEREFOR, AND IMAGE PROCESSING SYSTEM |
Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH03276367A (en) * | 1990-03-26 | 1991-12-06 | A T R Jido Honyaku Denwa Kenkyusho:Kk | Instance-oriented machine translation system |
JPH04167176A (en) * | 1990-10-31 | 1992-06-15 | Nec Corp | Speech recognition device |
JPH06139044A (en) * | 1992-10-28 | 1994-05-20 | Sony Corp | Interface method and device |
JPH06202689A (en) * | 1992-12-28 | 1994-07-22 | Sony Corp | Method and device for speech recognition |
JPH06274546A (en) * | 1993-03-19 | 1994-09-30 | A T R Jido Honyaku Denwa Kenkyusho:Kk | Information quantity matching degree calculation system |
JPH09237278A (en) * | 1996-03-04 | 1997-09-09 | Nippon Telegr & Teleph Corp <Ntt> | Accurate interaction processing system |
JP2001034289A (en) * | 1999-07-16 | 2001-02-09 | Nec Corp | Interactive system using natural language |
JP2001188779A (en) * | 1999-12-28 | 2001-07-10 | Sony Corp | Device and method for processing information and recording medium |
-
2001
- 2001-03-28 JP JP2001093238A patent/JP3523213B2/en not_active Expired - Fee Related
Patent Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH03276367A (en) * | 1990-03-26 | 1991-12-06 | A T R Jido Honyaku Denwa Kenkyusho:Kk | Instance-oriented machine translation system |
JPH04167176A (en) * | 1990-10-31 | 1992-06-15 | Nec Corp | Speech recognition device |
JPH06139044A (en) * | 1992-10-28 | 1994-05-20 | Sony Corp | Interface method and device |
JPH06202689A (en) * | 1992-12-28 | 1994-07-22 | Sony Corp | Method and device for speech recognition |
JPH06274546A (en) * | 1993-03-19 | 1994-09-30 | A T R Jido Honyaku Denwa Kenkyusho:Kk | Information quantity matching degree calculation system |
JPH09237278A (en) * | 1996-03-04 | 1997-09-09 | Nippon Telegr & Teleph Corp <Ntt> | Accurate interaction processing system |
JP2001034289A (en) * | 1999-07-16 | 2001-02-09 | Nec Corp | Interactive system using natural language |
JP2001188779A (en) * | 1999-12-28 | 2001-07-10 | Sony Corp | Device and method for processing information and recording medium |
Cited By (31)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2007524928A (en) * | 2003-11-17 | 2007-08-30 | アプテラ・インコーポレイテツド | Multi-platform inference engine and general-purpose grammar language adapter for intelligent speech application execution |
JP2005181386A (en) * | 2003-12-16 | 2005-07-07 | Mitsubishi Electric Corp | Device, method, and program for speech interactive processing |
JP2005266769A (en) * | 2003-12-23 | 2005-09-29 | Canon Inc | Data processing apparatus and method |
JP4718163B2 (en) * | 2004-11-19 | 2011-07-06 | パイオニア株式会社 | Audio processing apparatus, audio processing method, audio processing program, and recording medium |
JP2006145891A (en) * | 2004-11-19 | 2006-06-08 | Pioneer Electronic Corp | Voice processor, voice processing method, voice processing program and recording medium |
JP2006154190A (en) * | 2004-11-29 | 2006-06-15 | Toshiba Corp | Speech movement controller and speech movement control method |
JP2009501387A (en) * | 2005-07-12 | 2009-01-15 | ティブコ ソフトウェア インク | State machine by inference |
US8706502B2 (en) | 2006-05-31 | 2014-04-22 | Funai Electric Co., Ltd. | Electronic equipment and television receiver utilizing multimodal multifunction voice commands |
US12165635B2 (en) | 2010-01-18 | 2024-12-10 | Apple Inc. | Intelligent automated assistant |
US12087308B2 (en) | 2010-01-18 | 2024-09-10 | Apple Inc. | Intelligent automated assistant |
JP7213206B2 (en) | 2010-01-18 | 2023-01-26 | アップル インコーポレイテッド | intelligent auto assistant |
US11423886B2 (en) | 2010-01-18 | 2022-08-23 | Apple Inc. | Task flow identification based on user intent |
JP2020173835A (en) * | 2010-01-18 | 2020-10-22 | アップル インコーポレイテッドApple Inc. | Intelligent automated assistant |
JP2011150682A (en) * | 2010-01-22 | 2011-08-04 | Google Inc | Multi-dimensional disambiguation of voice command |
US9733895B2 (en) | 2011-08-05 | 2017-08-15 | Samsung Electronics Co., Ltd. | Method for controlling electronic apparatus based on voice recognition and motion recognition, and electronic apparatus applying the same |
JP2013041579A (en) * | 2011-08-05 | 2013-02-28 | Samsung Electronics Co Ltd | Electronic device and method of controlling the same |
US9002714B2 (en) | 2011-08-05 | 2015-04-07 | Samsung Electronics Co., Ltd. | Method for controlling electronic apparatus based on voice recognition and motion recognition, and electronic apparatus applying the same |
US9317605B1 (en) | 2012-03-21 | 2016-04-19 | Google Inc. | Presenting forked auto-completions |
US10210242B1 (en) | 2012-03-21 | 2019-02-19 | Google Llc | Presenting forked auto-completions |
JPWO2013190956A1 (en) * | 2012-06-19 | 2016-05-26 | 株式会社Nttドコモ | Function execution instruction system, function execution instruction method, and function execution instruction program |
US9646606B2 (en) | 2013-07-03 | 2017-05-09 | Google Inc. | Speech recognition using domain knowledge |
KR20190016552A (en) * | 2016-06-07 | 2019-02-18 | 구글 엘엘씨 | Nondeterministic task initiation by personal assistant module |
JP2019523907A (en) * | 2016-06-07 | 2019-08-29 | グーグル エルエルシー | Non-deterministic task start with personal assistant module |
KR102189853B1 (en) | 2016-06-07 | 2020-12-11 | 구글 엘엘씨 | Non-deterministic start of work by personal assistant module |
JP2018155896A (en) * | 2017-03-17 | 2018-10-04 | ヤマハ株式会社 | Control method and controller |
JP2020047101A (en) * | 2018-09-20 | 2020-03-26 | Zホールディングス株式会社 | Communication assistance device, user device, communication assistance method, and program |
JP7182969B2 (en) | 2018-09-20 | 2022-12-05 | ヤフー株式会社 | COMMUNICATION SUPPORT DEVICE, USER DEVICE, COMMUNICATION SUPPORT METHOD, AND PROGRAM |
JP7373386B2 (en) | 2019-12-19 | 2023-11-02 | 東芝ライフスタイル株式会社 | Control device |
JP2021099378A (en) * | 2019-12-19 | 2021-07-01 | 東芝ライフスタイル株式会社 | Controller |
JP7554921B2 (en) | 2021-05-17 | 2024-09-20 | グーグル エルエルシー | Enabling natural conversations with automated assistants |
JP7462995B1 (en) | 2023-10-26 | 2024-04-08 | Starley株式会社 | Information processing system, information processing method, and program |
Also Published As
Publication number | Publication date |
---|---|
JP3523213B2 (en) | 2004-04-26 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2002287793A (en) | Command processing device, command processing method, and command processing program | |
US11848008B2 (en) | Artificial intelligence-based wakeup word detection method and apparatus, device, and medium | |
JP7063932B2 (en) | Appropriate agent automation assistant call | |
US12229499B1 (en) | Computer-implemented presentation of synonyms based on syntactic dependency | |
US20230074406A1 (en) | Using large language model(s) in generating automated assistant response(s | |
US9865264B2 (en) | Selective speech recognition for chat and digital personal assistant systems | |
US20250037711A1 (en) | Using large language model(s) in generating automated assistant response(s) | |
CN110730953B (en) | Method and system for customizing interactive dialogue application based on content provided by creator | |
CN113468302A (en) | Combining parameters of multiple search queries sharing an interrogation line | |
US9805718B2 (en) | Clarifying natural language input using targeted questions | |
CN112262430A (en) | Automatically determining language for speech recognition of a spoken utterance received via an automated assistant interface | |
JP3662780B2 (en) | Dialogue system using natural language | |
EP3545520B1 (en) | Voice to text conversion based on third-party agent content | |
KR20210110650A (en) | Supplement your automatic assistant with voice input based on selected suggestions | |
US20160163314A1 (en) | Dialog management system and dialog management method | |
CN117392977A (en) | Automatically determining a language for speech recognition of a spoken utterance received through an automated assistant interface | |
WO2018045646A1 (en) | Artificial intelligence-based method and device for human-machine interaction | |
US11314942B1 (en) | Accelerating agent performance in a natural language processing system | |
US11626107B1 (en) | Natural language processing | |
CN116955568A (en) | User manual-based question and answer method, device, electronic equipment and storage medium | |
EP4162485B1 (en) | Providing prompts in speech recognition results in real time | |
CN115658875A (en) | Data processing method based on chat service and related product | |
TW201804459A (en) | Method of switching input modes, mobile communication device and computer-readable medium allowing users to switch, in presence of large amount of ambient noises, from a voice input mode to a text input mode while operating a financial software | |
US20240311585A1 (en) | Providing a well-formed alternate phrase as a suggestion in lieu of a not well-formed phrase | |
JP7462995B1 (en) | Information processing system, information processing method, and program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20040204 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20040205 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20130220 Year of fee payment: 9 |
|
LAPS | Cancellation because of no payment of annual fees |