JP2008015585A - Living task support system - Google Patents
Living task support system Download PDFInfo
- Publication number
- JP2008015585A JP2008015585A JP2006183101A JP2006183101A JP2008015585A JP 2008015585 A JP2008015585 A JP 2008015585A JP 2006183101 A JP2006183101 A JP 2006183101A JP 2006183101 A JP2006183101 A JP 2006183101A JP 2008015585 A JP2008015585 A JP 2008015585A
- Authority
- JP
- Japan
- Prior art keywords
- task
- user
- life
- video
- model
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Withdrawn
Links
- 230000009471 action Effects 0.000 claims abstract description 52
- 239000000463 material Substances 0.000 claims abstract description 44
- 230000003993 interaction Effects 0.000 claims abstract description 43
- 230000007704 transition Effects 0.000 claims abstract description 28
- 238000012545 processing Methods 0.000 claims description 39
- 238000000034 method Methods 0.000 claims description 31
- 230000004044 response Effects 0.000 claims description 19
- 238000003860 storage Methods 0.000 claims description 17
- 230000008569 process Effects 0.000 claims description 12
- 230000033001 locomotion Effects 0.000 claims description 10
- 230000015572 biosynthetic process Effects 0.000 claims description 2
- 238000003786 synthesis reaction Methods 0.000 claims description 2
- 238000010411 cooking Methods 0.000 description 126
- 229920002472 Starch Polymers 0.000 description 21
- 230000006399 behavior Effects 0.000 description 21
- 235000019698 starch Nutrition 0.000 description 21
- 239000008107 starch Substances 0.000 description 21
- 239000003550 marker Substances 0.000 description 13
- XLYOFNOQVPJJNP-UHFFFAOYSA-N water Substances O XLYOFNOQVPJJNP-UHFFFAOYSA-N 0.000 description 11
- 235000015278 beef Nutrition 0.000 description 10
- 238000001514 detection method Methods 0.000 description 10
- 230000006870 function Effects 0.000 description 9
- 235000013372 meat Nutrition 0.000 description 8
- 238000007726 management method Methods 0.000 description 7
- 238000005520 cutting process Methods 0.000 description 6
- 230000002452 interceptive effect Effects 0.000 description 6
- 235000013305 food Nutrition 0.000 description 5
- 241000237502 Ostreidae Species 0.000 description 4
- 238000013523 data management Methods 0.000 description 4
- 239000004615 ingredient Substances 0.000 description 4
- 238000002844 melting Methods 0.000 description 4
- 230000008018 melting Effects 0.000 description 4
- 235000020636 oyster Nutrition 0.000 description 4
- 229920001592 potato starch Polymers 0.000 description 4
- 235000015067 sauces Nutrition 0.000 description 4
- 235000014676 Phragmites communis Nutrition 0.000 description 3
- 238000004891 communication Methods 0.000 description 3
- 238000012790 confirmation Methods 0.000 description 3
- 238000013500 data storage Methods 0.000 description 3
- 238000010586 diagram Methods 0.000 description 3
- 239000000284 extract Substances 0.000 description 3
- 210000002414 leg Anatomy 0.000 description 3
- 238000012552 review Methods 0.000 description 3
- 125000002066 L-histidyl group Chemical group [H]N1C([H])=NC(C([H])([H])[C@](C(=O)[*])([H])N([H])[H])=C1[H] 0.000 description 2
- 240000008415 Lactuca sativa Species 0.000 description 2
- 230000008859 change Effects 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 238000000605 extraction Methods 0.000 description 2
- 235000011194 food seasoning agent Nutrition 0.000 description 2
- 238000004519 manufacturing process Methods 0.000 description 2
- 235000012045 salad Nutrition 0.000 description 2
- 238000003756 stirring Methods 0.000 description 2
- 210000000689 upper leg Anatomy 0.000 description 2
- 240000001080 Grifola frondosa Species 0.000 description 1
- 235000007710 Grifola frondosa Nutrition 0.000 description 1
- 240000001462 Pleurotus ostreatus Species 0.000 description 1
- 238000004458 analytical method Methods 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 239000003795 chemical substances by application Substances 0.000 description 1
- 238000004140 cleaning Methods 0.000 description 1
- 230000007613 environmental effect Effects 0.000 description 1
- 239000000835 fiber Substances 0.000 description 1
- 239000000155 melt Substances 0.000 description 1
- 230000000877 morphologic effect Effects 0.000 description 1
- 230000000474 nursing effect Effects 0.000 description 1
- 239000000843 powder Substances 0.000 description 1
- 238000011084 recovery Methods 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 235000013555 soy sauce Nutrition 0.000 description 1
- 239000004575 stone Substances 0.000 description 1
- 230000002194 synthesizing effect Effects 0.000 description 1
Images
Landscapes
- User Interface Of Digital Computer (AREA)
- Management, Administration, Business Operations System, And Electronic Commerce (AREA)
Abstract
【課題】 複数ステップで構成される生活タスクをユーザが実行する場合に,ステップに応じた情報やガイダンスを提示して支援する。
【解決手段】 タスクモデル取得部22は,タスク教材データベース13から,ユーザが選択した生活タスクの各ステップを,より詳細なサブステップで表すタスクモデルに変換し,状態遷移モデルを生成する。タスク進行制御部23は,センサ情報から得たユーザの動作/状態からコンテキストを取得し,このコンテキストに合致する状態遷移モデルのサブステップを特定する。インタラクション制御部24は,このサブステップのタスク内容を,映像提示部26を介してユーザに提示し,音声出力部25を介して音声ガイダンスを行って,インタラクションを制御する。映像検索部27は,要求された生活タスクのステップの教師映像データ,ユーザが行った作業の映像データとを検索し,映像提示部26で出力する。
【選択図】 図1PROBLEM TO BE SOLVED: To support by presenting information and guidance according to a step when a user executes a life task composed of a plurality of steps.
A task model acquisition unit 22 converts each step of a life task selected by a user from a task teaching material database 13 into a task model represented by a more detailed substep, and generates a state transition model. The task progress control unit 23 acquires a context from the user's action / state obtained from the sensor information, and specifies a substep of the state transition model that matches this context. The interaction control unit 24 presents the task contents of this sub-step to the user via the video presentation unit 26 and performs voice guidance via the voice output unit 25 to control the interaction. The video retrieval unit 27 retrieves the teacher video data of the requested daily task step and the video data of the work performed by the user, and outputs it by the video presentation unit 26.
[Selection] Figure 1
Description
本発明は,対話機能を用いて,ユーザの生活タスクを支援する生活タスク支援システムに関する。より詳しくは,複数のステップで構成されるような生活タスクをユーザが行っている場合に,実行中のユーザの動作または置かれた状況などを表すコンテキストをセンサ情報から推論し,インタラクティブな対話機能を用いてユーザを支援する技術に関する。 The present invention relates to a life task support system that supports a user's life task using an interactive function. More specifically, when a user performs a daily task consisting of multiple steps, an interactive dialog function is inferred from the sensor information to indicate the context representing the action of the user being executed or the situation being placed. TECHNICAL FIELD OF THE INVENTION
生活タスクとは,ユーザの一般的な生活,その他の様々な活動において行われる,ある目的のための作業や動作であって,時系列的な複数のステップで構成されるものをいう。 The life task is a work or operation for a certain purpose performed in a user's general life or other various activities, and is composed of a plurality of time-series steps.
ユビキタスな環境を背景にして,ユーザの居住空間などに設置されて自律的にユーザの生活を支援する生活支援システムが実現されている。この生活支援システムは,快適な環境の維持やユーザの活動支援のために,各種のセンサ情報にもとづいて環境やユーザの行動を推論し,ネットワークで接続されたアプライアンス(通信機能を備えた家電機器),情報端末装置などを制御してユーザの生活を支援するための種々のサービスを提供するものである。 With a ubiquitous environment as a background, a life support system that is installed in a user's living space and autonomously supports the user's life has been realized. In order to maintain a comfortable environment and support user activities, this life support system infers the environment and user behavior based on various sensor information, and is connected to a network-connected appliance (home appliance with a communication function). ), And provides various services for supporting the life of the user by controlling the information terminal device and the like.
例えば,非特許文献1の生活支援システムは,センサ情報をもとにユーザの動作・姿勢,部屋の状況を分析してユーザがリラックスした状態であると推論すると,アプライアンスの一つであるオーディオシステムによってユーザの嗜好にあった音楽を流したり,または,エアコンによって室内の温湿度を維持したりして,ユーザがこれらのアプライアンスを意識的に操作することなく快適な生活環境を実現できるようにしている。
For example, the life support system of Non-Patent
また,本発明者は,特許文献1の対話システムに示すように,ユーザの生活環境全体に構築されてアプライアンスを自立的に制御して生活支援のサービスを提供する生活支援システムと,生活支援システムが提供するサービスの説明などをユーザと音声によって対話する対話ロボットとを備えるシステムを実現している(参照,特許文献1)。
このように,生活支援システムは,ユーザの動作やユーザを取り巻く環境などをセンシングした情報をもとに推論したコンテキストに応じて,様々な生活サービスを実行することができる。例えば,ユーザの動作や取り巻く環境(コンテキスト)などに応じて,「エアコンによって室内の温湿度を調節する」など,状況適応的にアプライアンスを制御するサービスを実行することができる。 As described above, the life support system can execute various life services according to the context inferred based on information obtained by sensing the user's operation and the environment surrounding the user. For example, it is possible to execute a service for controlling the appliance adaptively to the situation, such as “adjusting the temperature and humidity of the room with an air conditioner” according to the user's operation and surrounding environment (context).
しかし,ユーザの生活タスクの内容にもとづいて,より高度な支援が行えるようなサービスが求められている。例えば,調理タスク,清掃タスク,介護タスクなど,所定の目的のために一連の手順に従って行うような作業を行う場合に,ユーザの動作や周囲の状況などのコンテキストを推論して,タスクを実行中のユーザの動作や状態に応じた適切な支援を行えるサービスが求められている。 However, there is a need for a service that can provide more advanced support based on the contents of the user's daily tasks. For example, when performing tasks such as cooking tasks, cleaning tasks, and nursing tasks that are performed according to a series of procedures for a predetermined purpose, the task is being executed by inferring contexts such as user actions and surrounding conditions. There is a need for a service that can provide appropriate support according to the user's actions and conditions.
生活タスクの一つである調理タスクを支援する従来のシステムとして,調理中のユーザの動作をビデオカメラで撮影しておき,ユーザが何らかの事情で調理タスクの動作を一旦中断し,その後に調理タスクに復帰した場合に,中断直前のユーザの動作が録画されたビデオデータを再生することによって,ユーザが行っていた動作を確認できるようにするシステムが知られている。しかし,この従来システムでは,システム側で,調理タスクにおける手順や方法についての5W1Hの情報,すなわち「誰が,何を,いつ,どこで,どのように行う」という情報が蓄積されていないため,時系列的に記録されたユーザのビデオデータから,単に特定の時点(中断時)の直前に行っていた部分を再生してユーザの動作を確認するだけであった。 As a conventional system that supports cooking tasks, which is one of the daily tasks, the user's actions during cooking are shot with a video camera, and the user temporarily stops cooking tasks for some reason, and then the cooking task There is known a system that enables the user's operation to be confirmed by playing back video data in which the user's operation immediately before the interruption is recorded when the operation is restored. However, in this conventional system, since 5W1H information about the procedure and method in the cooking task, that is, information “who, what, when, where, how” is not accumulated on the system side, From the user's recorded video data, the part that was performed just before the specific time (at the time of interruption) was simply played back to confirm the user's operation.
調理タスクは,所定の複数の手順(ステップ)があり,各ステップでは所定の動作を行うように規定されている。この規定された動作をステップ順に行えたときに,調理タスクが成功したと考えられる。 The cooking task has a plurality of predetermined procedures (steps), and each step is defined to perform a predetermined operation. The cooking task is considered successful when the specified actions can be performed in the order of steps.
したがって,行うべきステップを抜かしてしまったり,ステップで行うべき動作を完全に行えなかったりしたときは,調理タスクが失敗してしまうことになる。例えば,調理中のユーザが,電話応答のために一時的に調理を中断し,その後に調理に戻ったときに,「調味料を既に入れたか,未だ入れていなかったか」を思い出せないことがある。このような状況では,調理タスク中の「味付け」というステップが抜けたり,または重複して行われたりするおそれがあり,調理タスクの失敗につながる。 Therefore, if a step to be performed is omitted or an operation to be performed in a step cannot be completely performed, the cooking task will fail. For example, a user who is cooking may not be able to remember “whether seasoning has already been added or not yet added” when cooking is temporarily interrupted due to a telephone response and then returned to cooking. . In such a situation, there is a possibility that the step of “seasoning” during the cooking task may be missed or performed repeatedly, leading to failure of the cooking task.
また,ユーザが初心者の場合には,調理の各ステップで,所定の動作を行っているつもりでも,本人が気づかないうちにステップを抜かしていたり,間違った動作をしたりするおそれがあり,調理タスクを失敗することになる。 In addition, if the user is a beginner, even if he intends to perform a predetermined action at each step of cooking, there is a risk that he / she may miss the step or perform an incorrect action without his / her awareness. The task will fail.
このような失敗をできるだけ排除できるように,ユーザが行っているステップに応じた情報やガイダンスを提供する必要がある。 In order to eliminate such failures as much as possible, it is necessary to provide information and guidance according to the steps the user is performing.
また,ユーザ側は,調理タスク終了後に「どのステップで失敗したのか」,「どのような動作の誤りがあったのか」など失敗の原因となるような状況を確認したいという要求がある。 In addition, there is a request on the user side to confirm a situation that causes a failure such as “which step has failed” or “what operation error has occurred” after the cooking task is completed.
本発明の目的は,ユーザとのインタラクション機能を備えた生活タスク支援システムにおいて,センサ情報からユーザの動作や状況を表すコンテキストを獲得し,複数のステップによって構成される生活タスクをユーザが実行している場合に,ユーザが実行中のステップに応じた情報やガイダンスを提示して,ユーザの生活タスクを支援するシステムを提供することである。 It is an object of the present invention to acquire a context representing a user's operation and situation from sensor information in a living task support system having an interaction function with a user, and the user executes a living task composed of a plurality of steps. In this case, the system provides a system that supports the user's life task by presenting information and guidance according to the step being performed by the user.
また,本発明の別の目的は,ユーザが生活タスクを実行した後,生活タスク実行の手本動作となる情報,さらにはユーザが行った動作内容などをユーザに提示して,ユーザの生活タスクを支援するシステムを提供することである。 In addition, another object of the present invention is to present the user with the life task execution information after the user has performed the life task, and further present the user's life task. It is to provide a system that supports
本発明は,ユーザが行う生活タスクを支援するために,ユーザの環境,生活タスクで行われる動作についての暗黙的な知識情報などを蓄積し,生活タスクをモデル化する機能,センシングされた情報から,ユーザの動作や取り巻く状況を表すコンテキストを推定する機能,および,生活タスク実行中のユーザが必要な情報を,適切なタイミング,メディアかつ内容の粒度でインタラクティブに提示する機能を制御することを特徴とする。 The present invention accumulates implicit knowledge information about the user's environment, operations performed in the living task, etc., and functions to model the living task, and sensed information to support the living task performed by the user. , A function that estimates the context that represents the user's actions and surrounding circumstances, and a function that interactively presents the information required by the user who is performing a daily task at an appropriate timing, media, and content granularity And
本発明は,ユーザが行う生活タスクについて,生活タスクで使用される語彙を規定するタスク知識情報と,各生活タスクの動作,使用する器具,および実行される場所を含むタスク情報と,ユーザの生活タスクが実行される空間内で計測されたセンサ情報と,前記センサ情報をもとに推論された生活タスク実行中のユーザの動作および状態に関する動作/状態情報と,前記動作/状態情報から推論されるコンテキストとを蓄積する分散環境行動データベースを備える生活タスク支援システムであって,1)複数のステップで構成される生活タスクの内容および手順を複数のサブステップで記述したタスクモデルを記憶するタスクモデル記憶手段と,2)前記タスクモデル記憶手段から,ユーザによって選択された生活タスクのタスクモデルを抽出するタスクモデル取得手段と,3)前記ユーザへの問いかけを生成して出力する処理と当該問いかけに対する前記ユーザの応答内容を解釈する処理とを行って,前記ユーザとのインタラクションを制御するインタラクション制御手段と,4)前記抽出されたタスクモデルをもとに,前記分散環境行動データベースに蓄積されるセンサ情報として検出可能なユーザの動作および状態に対応して構成された状態遷移モデルを生成するタスク記述手段と,5)前記センサ情報または前記応答内容から生成された前記ユーザの動作情報または状態情報をもとに前記生活タスクにおけるユーザの動作または状態を表すコンテキストを推定し,前記状態遷移モデルから前記コンテキストに合致する前記タスクモデルのサブステップを特定するタスク進行制御手段と,6)前記特定されたサブステップに関連付けられた前記生活タスクの内容を,前記ユーザに対して提示するタスク内容提示手段とを備えることを特徴とする。 The present invention relates to task knowledge information that defines the vocabulary used in the life task, task information including the operation of each life task, the equipment used, and the place where it is executed, and the life of the user. Inferred from the sensor information measured in the space where the task is executed, the action / state information related to the user's action and state during the life task execution inferred from the sensor information, and the action / state information. A living task support system having a distributed environment behavior database for storing a context, and 1) a task model storing a task model in which contents and procedures of a living task composed of a plurality of steps are described in a plurality of substeps Storage means, and 2) a task model of a life task selected by the user from the task model storage means. A task model acquisition means for outputting, and 3) an interaction control for controlling an interaction with the user by performing a process of generating and outputting an inquiry to the user and a process of interpreting a response content of the user in response to the inquiry And 4) a task for generating a state transition model configured in accordance with user actions and states that can be detected as sensor information stored in the distributed environment behavior database based on the extracted task model And 5) estimating a context representing the user's action or state in the life task based on the user's action information or state information generated from the sensor information or the response content, and from the state transition model Task progress that identifies substeps of the task model that match the context And control means, 6) the contents of the life tasks associated with the identified sub-step, characterized in that it comprises a task content presenting means for presenting to the user.
本発明は,ユーザによって指定された生活タスクを支援するために,生活タスクの内容および手順を複数のサブステップで記述したタスクモデルを記憶するタスクモデル記憶手段を備える。そして,タスクモデル取得手段によって,タスクモデル記憶手段から,ユーザによって選択された生活タスクのタスクモデルを取得する。さらに,タスク記述手段によって,このタスクモデルをもとに,センサ情報として検出可能なユーザの動作および状態に対応して構成された状態遷移モデルを生成する。 The present invention includes task model storage means for storing a task model in which the contents and procedure of a living task are described in a plurality of substeps in order to support the living task designated by the user. Then, the task model acquisition unit acquires the task model of the life task selected by the user from the task model storage unit. Further, the task description means generates a state transition model configured corresponding to the user's operation and state that can be detected as sensor information based on this task model.
そして,タスク進行制御手段によって,センサ情報および応答内容から生成された前記ユーザの動作/状態情報をもとに生活タスクにおけるユーザの動作または状態を表すコンテキストを推定し,この状態遷移モデルからコンテキストに合致するタスクモデルのサブステップを特定する。そして,タスク内容提示手段によって,特定されたサブステップに関連付けられた生活タスクの内容を,ユーザに対して提示する。また,インタラクション制御手段によって,生活タスクの進行中に,コンテキストにもとづいてユーザへの問いかけを生成し,この問いかけを音声データに変換して出力し,または,問いかけに対してユーザが発話した音声データを音声認識して問いかけに対する応答内容を解釈する。 Then, the task progress control means estimates a context representing the user's action or state in the life task based on the user's action / state information generated from the sensor information and the response content, and the context is converted from this state transition model. Identify matching task model substeps. And the content of the life task linked | related with the specified substep is shown with respect to a user by a task content presentation means. In addition, the interaction control means generates a question to the user based on the context while the life task is in progress, and converts this question into voice data and outputs it, or voice data uttered by the user in response to the question The voice response is interpreted and the response content to the question is interpreted.
これによって,生活タスクを実行中のユーザに対して,実行中のステップに応じた情報を提示させることができる。 As a result, information corresponding to the step being executed can be presented to the user who is executing the life task.
また,本発明は,前記タスク記述手段によって,生活タスクの内容および定義が記述されたタスク教材データを取得し,このタスク教材データの各ステップを複数のサブステップで記述したタスクモデルを生成する。 In the present invention, the task description means acquires task teaching material data in which the contents and definition of the life task are described, and generates a task model in which each step of the task teaching material data is described in a plurality of substeps.
さらに,前記タスク記述手段によって,分散環境行動データベースから,ユーザに要求された生活タスクに関連するコンテキストを検索し,このコンテキストに記述された情報をもとに,生活タスクのタスクモデルを生成し,このタスクモデルから状態遷移モデルを生成する。 Further, the task description means searches the distributed environment behavior database for a context related to the life task requested by the user, generates a task model of the life task based on the information described in the context, A state transition model is generated from this task model.
また,本発明は,生活タスクの内容および手順が記述されたタスク教材データを記憶するタスク教材データベースを備えて,前記タスク記述手段によって,このタスク教材データベースからユーザによって選択されたタスク教材データを取得する。 The present invention further includes a task teaching material database for storing task teaching material data in which the contents and procedures of daily tasks are described, and the task teaching data is acquired from the task teaching material database by the task description means. To do.
また,本発明は,生活タスクの各ステップにおいて手本となる動作を記録した教師映像データを記憶する教師映像データベースと,教師映像データベースから,特定された生活タスクのステップに関連する教師映像データを検索する映像検索手段とを備え,前記タスク内容提示手段によって,検索された教師映像データを出力する。 In addition, the present invention provides a teacher video database that stores teacher video data that records a model action at each step of the life task, and teacher video data related to the identified life task step from the teacher video database. Video search means for searching, and the searched teacher video data is output by the task content presentation means.
また,本発明は,生活タスクを実行中のユーザの動作を記録したユーザ映像データを記憶するユーザ映像データベースと,ユーザ映像データベースにユーザ映像データを蓄積するユーザ映像蓄積処理手段とを備え,前記映像検索手段によって,ユーザから映像提示の要求があった場合に,教師映像データベースから要求にかかる動作または状態または生活タスクのステップのいずれかに該当する教師映像データを検索し,ユーザ映像データベースから要求にかかるユーザ映像データを検索し,前記タスク内容提示手段によって,検索された教師映像データおよびユーザ映像データを,例えばユーザが比較可能な状態で表示するなどして,出力することができる。これによって,ユーザが行った動作内容と生活タスク実行の手本動作となる情報とを共にユーザに提示させて,ユーザに比較させることができる。 In addition, the present invention includes a user video database that stores user video data that records the actions of a user who is performing a life task, and user video storage processing means that stores user video data in the user video database. When there is a video presentation request from the user by the retrieval means, the teacher video database is searched for the teacher video data corresponding to either the requested action or state or the life task step, and the request is received from the user video database. Such user video data is retrieved, and the task content presentation means can output the retrieved teacher video data and user video data, for example, in a state that the user can compare. Accordingly, the user can present both the contents of the action performed by the user and the information used as a model action for performing the life task, and can be compared with the user.
また,本発明の前記インタラクション制御手段は,ユーザとの対話を生成するための言語情報を蓄積する対話用辞書データベースと,コンテキストをもとにユーザに対する問いかけを生成する問いかけ生成手段と,生成された問いかけを音声データに変換して発話する音声合成手段と,ユーザが発話した音声データの内容を認識する音声認識手段とを備えることを特徴とする。これによって,ユーザと音声データによるインタラクションを実現することができる。これによって,音声によってユーザとインタラクションを行うことができる。 Further, the interaction control means of the present invention includes a dialog dictionary database for accumulating language information for generating a dialog with a user, a question generating means for generating a query for the user based on the context, It is characterized by comprising voice synthesis means for converting a question into voice data and speaking, and voice recognition means for recognizing the contents of voice data spoken by a user. As a result, it is possible to realize interaction with the user by voice data. This allows interaction with the user by voice.
また,本発明は,インタラクション制御手段によって,センサ情報から得られるユーザの状態またはコンテキストによって得られる生活タスクの進行状態から,ユーザの状態情報についてのユーザ状態モデルを生成し,このユーザ状態モデルをもとに,インタラクションの内容を決定するための所定のパラメータを算出する。所定のパラメータとは,例えば,ユーザに知らせる内容,内容の粒度(詳細さの程度),使用するメディア(音声,イメージ,テキストなど)を決定するものである。これによって,ユーザのスキルなどに合わせた内容でインタラクションを行うことができる。 Further, the present invention generates a user state model for the user state information from the user state obtained from the sensor information or the progress state of the life task obtained from the context by the interaction control means, and the user state model is also generated. And a predetermined parameter for determining the content of the interaction. The predetermined parameters are, for example, contents to be notified to the user, content granularity (degree of detail), and media to be used (speech, image, text, etc.). As a result, the user can interact with the contents according to the skill of the user.
また,本発明の生活タスク支援システムは,1)複数のステップで構成される生活タスクの内容および手順が記述されたタスク教材データと,生活タスクの各ステップにおいて手本となる動作を記録した教師映像データとを記憶するタスク教材データベースと,2)ユーザから映像提示要求があった場合に,分散環境行動データベースをもとに要求にかかる生活タスクを特定し,特定した生活タスクにおいて要求に合致する動作または状態を表すコンテキストを推定し,推定したコンテキストをもとにタスク教材データから要求にかかる生活タスクのステップを特定する提示対象特定手段と,3)特定されたステップに対応する教師映像データを,前記タスク教材データベースから抽出する映像検索手段と,4)前記抽出された教師映像データを出力する映像提示手段とを備える。 The living task support system of the present invention includes 1) task teaching material data in which the contents and procedure of a living task composed of a plurality of steps are described, and a teacher who records a model operation in each step of the living task. Task teaching material database that stores video data, and 2) When a user requests video presentation, identify the daily tasks required for the request based on the distributed environment behavior database, and meet the requirements in the identified daily tasks A presentation target specifying means for estimating a context representing an action or a state, and identifying a step of a living task according to a request from task teaching material data based on the estimated context; and 3) teaching video data corresponding to the identified step. , Video search means for extracting from the task teaching material database, and 4) the extracted teacher video data Outputs a and a video presentation unit.
本発明は,ユーザから映像提示要求があった場合に,提示対象特定手段によって,分散環境行動データベースをもとに,要求された生活タスクを特定し,特定した生活タスクにおいて要求に合致する動作または状態を表すコンテキストを推定し,このコンテキストをもとにタスク教材データから当該要求にかかる生活タスクの手順を特定する。そして,映像検索手段によって,特定した手順に対応する教師映像データを,タスク教材データベースから抽出し,映像提示手段によって,抽出された教師映像データを出力する。 In the present invention, when there is a video presentation request from the user, the requested living task is specified based on the distributed environment behavior database by the presentation target specifying means, and the action or The context representing the state is estimated, and the procedure of the life task related to the request is specified from the task teaching material data based on this context. Then, the teacher video data corresponding to the identified procedure is extracted from the task teaching material database by the video search means, and the extracted teacher video data is output by the video presentation means.
これによって,ユーザは,生活タスクを終了した後に手順を確認したい場合に,教材データの提示要求によって,該当する教師映像データを見ることができる。 As a result, when the user wants to check the procedure after completing the life task, the user can view the corresponding teacher video data in response to the teaching material data presentation request.
また,本発明は,生活タスクを実行中のユーザの動作を記録したユーザ映像データを記憶するユーザ映像データベースと,ユーザ映像データベースに,前記ユーザ映像データを蓄積するユーザ映像蓄積処理手段とを備えて,映像検索手段によって,ユーザ映像データベースから要求にかかるステップを実行したユーザ映像データを検索し,映像提示手段によって,検索された教師映像データおよびユーザ映像データを出力する。 In addition, the present invention includes a user video database that stores user video data that records the actions of a user who is performing a life task, and user video storage processing means that stores the user video data in the user video database. Then, the video search means searches the user video data from the user video database for the requested step, and the video presentation means outputs the searched teacher video data and user video data.
本発明によれば,複数のステップが順次行われて終了するような生活タスクについて,各ステップにおけるタスクの内容や動作などが記述されたタスク教材データ,手本となる動作を記録する映像データなどを蓄積しておき,センサ情報,ユーザの発話から,作業中のユーザの取り巻くコンテキストを抽出し,このコンテキストをもとに,ユーザが実行するべきステップ,各ステップで実行するべきタスクの内容,次のステップへのガイダンスなどをユーザに提示することができる。 According to the present invention, with respect to a life task that is completed after a plurality of steps are sequentially performed, task teaching material data describing task contents and operations in each step, video data recording a model operation, etc. From the sensor information and user's utterances, and the context surrounding the user who is working is extracted. Based on this context, the steps to be executed by the user, the contents of the tasks to be executed at each step, the following The user can be presented with guidance to the steps.
これにより,タスク実行中のユーザが,必要なステップを抜かしたり,ステップでのタスク内容を間違ったりすることを防止して,生活タスクを失敗なく完了できるように支援することができる。 As a result, it is possible to prevent a user who is executing a task from skipping a necessary step or making a mistake in the task contents at the step, and assisting the user to complete the life task without failure.
また,本発明によれば,生活タスクの各ステップでの動作手本となる映像情報と,ユーザが実際に実行したタスクの映像情報とを共に提示することができる。これにより,ユーザから問い合わせられたステップやタスク内容について,手本となる映像と自分の映像とを比較できるように表示することができる。これにより,ユーザは,手本となる動作と自分の動作とを比較して,失敗の箇所やその原因などを確認することができ,同じ生活タスクを再度実行するときに,より良く実行できるように支援することができる。 Further, according to the present invention, it is possible to present both video information as an example of operation at each step of a daily task and video information of a task actually executed by a user. As a result, it is possible to display the step and task contents inquired by the user so that the model video and the user's own video can be compared. As a result, the user can compare the model action with his or her own action to confirm the location of the failure and the cause of the failure. Can help.
本発明は,生活タスクの支援対象とするが,狭義の生活において行われるタスクに限らず,前述のように複数のステップが順次行われて完了する作業であればどのような分野のタスクをも支援対象とすることができる。本発明によれば,例えば,一人の作業者が複数の工程を通して行うことによって所定の組み立て作業を完成させる「屋台方式」と呼ばれるような作業タスクを支援することができる。そのため,作業者個々人に対応させて,作業の内容の説明を行うことができるため,作業の効率や精度の向上を図ることが期待できる。 Although the present invention is an object of support for daily tasks, it is not limited to tasks performed in a narrow sense of life, and tasks in any field can be applied as long as a plurality of steps are sequentially performed as described above. Can be supported. According to the present invention, for example, it is possible to support a work task called “a stand system” in which a single worker completes a predetermined assembly work through a plurality of processes. For this reason, it is possible to explain the contents of the work in correspondence with each worker, and it is expected to improve the efficiency and accuracy of the work.
以下に,本発明を実施するための最良の形態として,ユーザが,生活タスクとして「調理タスク」を行う場合を例に説明する。 Hereinafter, as a best mode for carrying out the present invention, a case where a user performs a “cooking task” as a living task will be described as an example.
図1は,本発明の生活タスク支援システムの構成例を示す図である。 FIG. 1 is a diagram showing a configuration example of a life task support system of the present invention.
生活タスク支援システム1は,分散環境行動データベース11,タスクモデルデータベース12,タスク教材データベース13,ユーザ映像データベース15,センサ情報収集部21,タスクモデル取得部22,タスク進行制御部23,インタラクション制御部24,音声出力部25,映像提示部26,映像検索部27,および状態遷移モデル記憶部28を備える。
The living
分散環境行動データベース11は,種々のセンサによって検出された,ユーザ,ユーザの周囲に存在する物,ユーザを取り巻く環境(空間の状態)などの情報をもとに検出したイベント情報/状態情報,イベント情報/状態情報から推論されたコンテキストなどを階層的に管理・蓄積するデータベースである。分散環境行動データベース11は,いわゆる生活空間における「人・モノ・環境」の情報を管理・蓄積・検索利用できるプラットフォームである。分散環境行動データベース11は,前記特許文献1(WO2005/086051A1)に記載された技術を用いて実現する。
The distributed
図2および図3に,分散環境行動データベース11の構成例を示す。分散環境行動データベース11は,センサ情報データベース(DB)層111,イベント/状態管理データベース(DB)層113,コンテキストデータベース(DB)層115,およびドメイン/タスク知識データベース(DB)層117の4つの管理層から構成される。
2 and 3 show examples of the configuration of the distributed
図3に示すように,センサ情報データベース層111は,ユーザが生活タスクを行う生活空間に配置されたセンサ(センシング装置)を介して収集されたセンサ情報を蓄積・管理するデータ管理手段である。
As shown in FIG. 3, the sensor
ユーザの生活空間には,RFIDタグセンサ,無線LAN測位システム,床センサ,焦電センサ,カメラ,マイク,睡眠センサ,家電機器状態センサ,ロボットセンサ(対話ロボットなどに搭載されたセンサ)などの多様なセンサが分散配置される。センサで収集された各センサ情報は,タイムスタンプ,データタイプ,データサイズをヘッダとした構造体のバイナリデータとして,センシング種別ごとに分散して蓄積される。 There are various user living spaces such as RFID tag sensors, wireless LAN positioning systems, floor sensors, pyroelectric sensors, cameras, microphones, sleep sensors, home appliance status sensors, robot sensors (sensors installed in interactive robots, etc.) Sensors are distributed. Each sensor information collected by the sensors is distributed and stored for each sensing type as binary data of a structure having a time stamp, data type, and data size as a header.
イベント/状態管理データベース層113は,センサ情報データベース層111のセンサ情報をもとに,生活空間内で生じたイベントや状態を検出し,その検出結果(イベント情報,状態情報)を蓄積・管理するデータ管理手段である。イベントや状態の検出処理として,具体的には,位置検出処理,人物同定処理,動き検出処理,音声認識処理,その他の処理が行われる。これらの処理結果は,時間情報,人・モノ・環境のID情報(同定情報),位置情報を主キーとし,イベントや状態の内容と確信度とを単位とした形式のデータとして蓄積される。
The event / state
コンテキストデータベース層115は,イベント/状態管理データベース層113の情報をもとに,ユーザの動作や取り巻く状態を表すコンテキストを推論し,このコンテキストデータを蓄積・管理するデータ管理手段である。コンテキストデータベース層115には,主格(人・モノ・環境などのコンテキストの主題を示す),動作格(主格の動作を示す),対象格(動作の対象を示す),場所格(動作の行われた場所を示す),確信度(推定されたコンテキストである確信の度合い)などの情報が,XML(eXtensible Markup Language)形式で記述されたコンテキストデータが蓄積される。
The
図4は,コンテキストデータベース層115に蓄積されるコンテキストデータの例である。図4に示すコンテキストデータは,「指定されたIDのユーザ(主格)が,記述された時間帯に,サラダ油(対象格)を指定された位置から(場所格)0.85の確信度で取り出した(動作格)」を表している。
FIG. 4 is an example of context data stored in the
ドメイン/タスク知識データベース層117は,ドメイン知識情報やタスク知識情報を蓄積・管理するデータ管理手段である。ドメイン/タスク知識データベース層117には,ユーザが実行する生活タスクの語彙などのサービスドメインを規定するドメイン知識データ,生活タスクでの動作,使用する器具やその実行場所での対応などの流用可能な暗黙的なタスク内容を規定するタスク知識データなどが,XMLまたはRDF(Resource Description Framework)形式で蓄積される。
The domain / task
図5に,ドメイン/タスク知識DB層117のドメイン/タスク知識データ例を示す。図5(A)は,調理に関する暗黙知識を示すタスク知識データの例である。ここでは,「煮る(Boil)という調理動作は,なべ(Pan)が必要で,レンジ(Range)で実行する」という内容を,調理器具と器具・場所などとの関係を示したRDF記述によって規定している。図5(B)は,主な調理動作の記述例を示す図である。「煮る(Boil)」以外に,「火を消す(closeFire),水を止める(closeWater),…」などが規定されている。
FIG. 5 shows an example of domain / task knowledge data in the domain / task
タスクモデルデータベース12は,タスクモデルが蓄積されたデータ蓄積手段である。タスクモデルは,生活タスクの内容および手順を複数のステップによる構造として記述したデータである。
The
タスク教材データベース13は,タスク教材データが蓄積されたデータ蓄積手段である。タスク教材データは,生活タスクの内容および手順を人間が理解可能な形式で自然言語によって記述したデータである。本例で,タスク教材データは,調理レシピデータである。また,タスク教材データベース13は,生活タスクの各手順(ステップ)において手本となる動作を記録した教師映像データを蓄積する。
The task
本例では,タスク教材データベース13に,調理レシピデータおよび教師映像データが蓄積されている。
In this example, cooking recipe data and teacher video data are accumulated in the task
図6に,調理レシピデータの例を示す。図6の調理レシピデータは,「牛肉ときのこのオイスターソース炒め」の調理タスクに必要な食材と,実行される調理動作とをステップごとに時系列的に記述した情報である。ここでは,以下のように,より詳細な作業の内容を示す複数のステップに分けて記述されている。
「S1.片栗粉大さじ1/2を水大さじ1/2で溶く,
S2.牛もも肉250gは繊維に沿って細切りにする,
S3.酒大さじ1,しょう油大さじ2,水溶きかたくり粉(同量の水で溶いたもの),サラダ油大さじ1を順に牛もも肉に加えてもみ込む,
S4.牛もも肉を約20分おく,
S5.まいたけ1パックとしめじ1パックの石づきを取る,…」。
FIG. 6 shows an example of cooking recipe data. The cooking recipe data in FIG. 6 is information in which the ingredients necessary for the cooking task of “Fry this oyster sauce when beef” and the cooking operation to be executed are described in time series. Here, it is divided into a plurality of steps indicating the details of the work as follows.
“S1. Dissolve 1/2 tablespoon of starch starch in 1/2 tablespoon of water.
S2. 250g of beef thigh is chopped along the fiber.
S3. Add 1 tablespoon of sake, 1 tablespoon of soy sauce, 2 tablespoons of water-soluble cauldron (dissolved in the same amount of water), and 1 tablespoon of salad oil to the beef thigh.
S4. Place the beef leg for about 20 minutes,
S5. Take a stone of 1 pack of maitake and 1 pack of shimeji… ”.
教師映像データは,各ステップで実行される調理動作の手本となる動作の映像データである。 The teacher video data is video data of an operation that serves as an example of a cooking operation executed in each step.
生活タスクの内容は,通常,いくつかのより細かいステップに分けることができる。タスク教材データは,いくつかのステップに分割され,ステップごとに内容が記述されているが,タスクモデルデータベース12に蓄積されているタスクモデルは,タスク教材データのステップ各々を,より細かなステップ(サブステップ)に分けて記述している。
The contents of life tasks can usually be divided into a number of smaller steps. The task teaching material data is divided into several steps, and the contents are described for each step. However, the task model stored in the
後述するように,タスクモデル取得部22は,支援対象となる生活タスクのタスクモデルがタスクモデルデータベース12に蓄積されていれば,蓄積されたタスクモデルを用いてタスク進行制御のための状態遷移モデルを生成する。また,支援対象となる生活タスクのタスクモデルがなければ,タスク教材データからタスクモデルを生成する。したがって,生活タスク支援システム1は,タスクモデルデータベース12とタスク教材データベース13のいずれか一方を備えていればよい。
As will be described later, if the task model of the life task to be supported is accumulated in the
ユーザ映像データベース15は,調理タスクを実行中のユーザの調理動作を撮影したユーザ映像情報を蓄積するデータ蓄積手段である。ユーザ映像情報は,センサの一つとして,キッチンの作業台の上に設置された固定カメラで撮影され,センサ情報収集部21を介してユーザ映像データベース15に蓄積される。
The
センサ情報収集部21は,ユーザの生活空間に分配設置されたセンサが検出したセンサ情報を収集し,分散環境行動データベース11へ格納する処理手段である。ユーザの生活空間の中で調理タスクが行われるキッチンには,ユーザの位置および移動を検出する床センサ,食器棚,食品棚などの扉の開閉を検出するリードスイッチ,タスクで使用されるRFIDタグ付きのオブジェクト(調理用器具,食品保存容器,食器など)の位置を検出するRFIDリーダ,冷蔵庫などのアプライアンスの動作状態を検出するセンシング機能,ユーザが発話した音声データを収集するマイク,作業台の天板を撮影するカメラなどが設置される。
The sensor
タスクモデル取得部22は,タスクモデル取得処理,タスクモデル記述処理,状態遷移モデル生成処理などを行う処理手段である。
The task
タスクモデル取得部22は,タスクモデル取得処理として,タスクモデルデータベース12から,ユーザによって選択された生活タスクのタスクモデルを抽出する。
The task
また,タスクモデル記述処理として,タスク教材データベース13からユーザが選択した調理タスクの調理レシピデータを抽出し,調理レシピデータの各ステップを,より詳細な調理動作に分けたサブステップに変換してタスクモデルを記述する。ここで,あるステップ内で生成されたサブステップのいくつかは,配列的に行われる動作や状態を記述するものであってもよい。
Also, as task model description processing, cooking recipe data of the cooking task selected by the user is extracted from the task
また,状態遷移モデル生成処理として,タスクモデルをもとに,センサ情報として検出可能なユーザの動作および状態に対応して構成された状態遷移モデルを生成し状態遷移モデル記憶部28に保存する。
Further, as the state transition model generation process, a state transition model configured corresponding to the user's operation and state that can be detected as sensor information is generated based on the task model and stored in the state transition
ここで生成される状態遷移モデルは,分散環境行動データベース11に蓄積されている,調理タスクで使用される調理器具,食器,食材など(オブジェクト)の状態データ(イベント/状態管理データベース層113),調理タスクに関連するタスク知識データをもとに,センサ情報として検出可能なユーザの動作および状態を要素として構成される。
The state transition model generated here is state data (event / state management database layer 113) of cooking utensils, tableware, ingredients, etc. (objects) used in cooking tasks, stored in the distributed
タスク進行制御部23は,タスク教材データを参照して,センサ情報によって獲得したユーザの生活タスクの動作に応じたリアルタイムの支援処理を実行するために,センサイベント検出処理,コンテキスト抽出処理,提示対象特定処理などを行って,支援する生活タスクの進行を制御する処理手段である。タスク進行制御部23は,タスクモデル取得部22,インタラクション制御部24,映像検索部27などを制御する。
The task
タスク進行制御部23は,センサイベント検出処理として,センサ情報から生成されたユーザの動作/状態情報やインタラクション制御部24から得たユーザの応答内容を取得する。さらに,コンテキスト抽出処理として,これらのセンサ情報または応答内容をもとに調理タスクにおけるユーザの動作または状態を表すコンテキストを推定し,このコンテキストデータに合致する調理タスクのサブステップを状態遷移モデルから特定する。
The task
また,タスク進行制御部23は,提示対象特定処理として,ユーザから教師映像データの提示が要求された場合に,要求された生活タスクにおいて,要求の内容に合致する動作または状態を表すコンテキストを推定し,このコンテキストデータをもとにタスク教材データの該当するステップを特定する。
Further, the task
インタラクション制御部24は,ユーザとのインタフェースとして,ユーザとの対話処理,タスク教材データベース13に蓄積された調理レシピデータの内容の表示処理,ユーザ映像データと教師映像データとの比較表示処理などを制御する処理手段である。
The
インタラクション制御部24は,ユーザとの対話処理のための処理手段として,ユーザとの対話を生成するための言語情報を蓄積する対話用辞書データベース,タスク進行制御部23によって抽出されたコンテキストをもとにユーザに対する問いかけを生成する問いかけ生成部,生成された問いかけを音声データに変換して発話する音声合成部,ユーザが発話した音声データの内容を認識する音声認識部などを備える。
The
インタラクション制御部24は,ユーザとの対話処理として,タスク進行制御部23によって特定された調理レシピデータのステップで実行される調理内容や調理動作の案内,次のステップへの導入案内,調理動作終了の確認などの問いかけを音声データに変換して出力する。また,問いかけに対するユーザの発話を入力し,音声認識し,その応答内容を解析して,タスク進行制御部23へ渡す。
As an interactive process with the user, the
また,インタラクション制御部24は,調理レシピデータの内容の表示処理として,タスク進行制御部23によって特定された調理タスクのサブステップに関連する調理レシピの内容を音声データに変換して出力する。
Moreover, the
また,インタラクション制御部24は,映像データの比較表示処理として,ユーザから映像の提示要求があった場合に,映像検索部27によって抽出されたユーザ映像データと教師映像データとの該当部分を並べてディスプレイに表示する。
Further, the
音声出力部25は,インタラクション制御部24で生成された音声データを出力する処理手段である。映像提示部26は,調理レシピの内容,映像データをディスプレイに表示する処理手段である。
The
図7に,ディスプレイの表示例を示す。図7(A)は,調理タスクの支援を実行中の表示である。ディスプレイ画面200には,調理タスクのステップに対応する調理タスクの内容表示201と,手本となる調理動作の教師映像データ表示203などが表示される。図7(B)は,検索要求に対する映像表示例である。ディスプレイ画面200には,ユーザ自身の調理動作であるユーザ映像データ表示205と,該当するステップや動作についての教師映像データ表示207とが並んで表示される。
FIG. 7 shows a display example of the display. FIG. 7A shows a display during support for cooking tasks. The
映像検索部27は,ユーザから映像提示要求があった場合に,タスク教材データベース13またはユーザ映像データベース15を検索して,要求された箇所または動作に関連する映像データを取得する処理手段である。
The
以下に,生活タスク支援システム1による調理タスクの支援処理を,より詳細に説明する。
Hereinafter, the cooking task support processing by the life
(1)センサイベントの検出
センサ情報収集部21によって収集されたセンサ情報は,分散環境行動データベース11のセンサ情報データベース層111へ蓄積される。分散環境行動データベース11では,センサ情報が蓄積されると,センサイベントが検出される。そして,センサ情報から,人物同定,動き,会話内容(会話テキスト)などが検出・認識される。その処理結果として,ユーザの動作(イベント情報)やキッチンの状態(状態情報)などが推定され,イベント/状態管理データベース層113に蓄積される。さらに,収集されたイベント情報や状態情報は,統合的に推論され,コンテキストが推定される。コンテキストデータは,コンテキストデータベース層115に蓄積される。
(1) Detection of Sensor Event The sensor information collected by the sensor
また,センサイベントは,タスク進行制御部23へ通知される。
Further, the sensor event is notified to the task
(2)調理タスクのモデル化
調理タスクの支援では,ユーザの調理の進行に合わせて調理レシピデータを適切に提示する必要がある。ユーザの調理の進行状況を管理するため,センサイベントで特定できるユーザの動作や状態が,調理タスクのどのサブステップに該当するのかを判定するために,調理タスクをモデル化して状態を定義する。
(2) Cooking Task Modeling In order to support cooking tasks, it is necessary to present cooking recipe data appropriately as the user progresses cooking. In order to manage the user's cooking progress, the cooking task is modeled and the state is defined in order to determine which substep of the cooking task corresponds to the user's action or state that can be specified by the sensor event.
ユーザが,「牛肉ときのこのオイスターソース炒め」の調理タスクについての支援サービスを要求すると,タスクモデル取得部22は,タスク教材データベース13から,「牛肉ときのこのオイスターソース炒め」の調理レシピデータを取得する。
When the user requests a support service for the cooking task of “Fry this oyster sauce when beef”, the task
そして,「牛肉ときのこのオイスターソース炒め」の調理レシピデータに時系列的に記述された各ステップを,より詳細なサブステップへ分割して調理タスクモデルへ変換する。 Then, each step described in the cooking recipe data of “Stir-fried beef with oyster sauce” is divided into more detailed sub-steps and converted into a cooking task model.
具体的には,図8に示すように,分散環境行動データベース11のドメイン/タスク知識データベース層117に蓄積されているタスク知識データ,イベント/状態管理データベース層113に蓄積されているイベント/状態情報などを参照して,調理レシピデータの各ステップを,調理タスクモデルに変換する。
Specifically, as shown in FIG. 8, task knowledge data stored in the domain / task
例えば,暗黙なタスク知識データ「AをBで溶くには,容器が必要である。溶く動作は,通常,作業台で行う。…」が蓄積され,また,状態データ「容器は,ボウルobject1,ボウルobject2は,キッチンの左上の食器棚に存在する。…」が蓄積されている場合に,調理レシピデータのステップS1「1.片栗粉大さじ1/2を水大さじ1/2で溶く」は,以下の6つのサブステップに分割される。
「SubS1:ボウルを作業台に置く,
SubS2:片栗粉を作業台に置く,
SubS3:計量スプーンを作業台に置く,
(SubS1〜3は順序不同),
SubS4:計量スプーンでボウルに片栗粉を入れる,
SubS5:計量スプーンでボウルに水を入れる,
SubS6:片栗粉をかき混ぜる」。
For example, implicit task knowledge data "A container is required to melt A with B. Melting operation is normally performed on a workbench ..." and status data "container is bowl object1, The bowl object2 exists in the upper left cupboard of the kitchen .... "is accumulated, step S1" 1.
“SubS1: Place the bowl on the workbench,
SubS2: Place starch on the workbench,
SubS3: Place the measuring spoon on the workbench,
(SubS1 to 3 are in no particular order),
SubS4: Put potato starch into the bowl with a measuring spoon.
SubS5: Put water into the bowl with a measuring spoon,
SubS6: Stir the starch. "
タスクモデル取得部22は,さらに,センサイベントによって獲得できるユーザのイベント情報/状態情報を用いて調理タスクの進行制御が行えるように,調理タスクモデルから,センサイベントによって認識可能なユーザのイベント(動作)や周囲の状態を要素として抜粋して,状態遷移モデルを生成し,状態遷移モデル記憶部28へ保存する。例えば,上記のステップS1「片栗粉を水で溶く」の場合に,センサイベントで認識可能なユーザの動作または状態は,「ボウルが作業台に現れる」,「片栗粉の容器が作業台に現れる」,「計量スプーンが作業台に現れる」の3つがある。従って,上記のステップの状態遷移モデルでは,これらの動作または状態が要素に含まれる。
The task
(3)コンテキストの獲得
タスク進行制御部23は,調理タスクを実行中のユーザの動作や周囲の状態に合致するサブステップを特定するために,センサイベントによって生成されたイベント/状態情報をもとに,コンテキストを獲得する。
(3) Acquisition of context The task
本例において,センサイベントでは,調理中のユーザの動作や状況を知るためのセンサ情報が,図9に示すようなセンサを介して収集される。 In this example, in the sensor event, sensor information for knowing the operation and situation of the user during cooking is collected via a sensor as shown in FIG.
・カメラ:図9に示すように,キッチンの作業台上およびIHクッキングヒータ上にそれぞれ2台ずつカメラを設置し,各撮影区域内の調理タスクに関係するオブジェクト(ボウル,まな板,フライパンなどの調理器具,食器,食材用容器など)の出現/消失を検出する。オブジェクトの位置検出には,例えばARToolKit(http://www.hitl.washington.edu/artoolkitを参照)を使用する。ARToolKitに準拠したマーカを予めオブジェクトに貼付しておく。マーカが貼付されたオブジェクトについては,撮影された画像中からマーカを検出することによって,オブジェクトの位置情報を検出することが可能である。 ・ Cameras: As shown in FIG. 9, two cameras are installed on the kitchen workbench and on the IH cooking heater, respectively, and objects related to cooking tasks (bowl, cutting board, frying pan, etc.) in each shooting area. , Tableware, food containers, etc.). For example, ARTToolKit (see http://www.hitl.washington.edu/artoolkit) is used to detect the position of the object. A marker compliant with ARTToolKit is pasted on the object in advance. For an object with a marker attached, it is possible to detect the position information of the object by detecting the marker from the captured image.
また,予めボウルの内底部にマーカを貼付しておき,ボウル内が空の状態では,マーカが撮影され,また,ボウル内に食材が入っている状態では,入れられた食材でマーカが隠れて撮影されないことを利用して,オブジェクトの状態情報を検出することが可能である。 In addition, a marker is affixed to the inner bottom of the bowl in advance, and when the bowl is empty, the marker is photographed, and when the bowl is filled with ingredients, the marker is hidden by the placed ingredients. It is possible to detect the state information of the object by utilizing that the image is not taken.
さらに,カメラによって撮影された作業台やIHクッキングヒータ上のユーザの手元の映像は,ユーザ映像データとしてユーザ映像データベース15に蓄積される。
Furthermore, the video of the user's hand on the work table or the IH cooking heater taken by the camera is stored in the
・リードスイッチ:包丁を収納する包丁ホルダにリードスイッチを設置し,包丁にマグネットを取り付けておく。これによって,「包丁ホルダから包丁が取り出された」というイベントを検出することができる。また,食器棚や食品収納庫の扉にリードスイッチを設置し,扉の開閉を検出することによって,「オブジェクトへのアクセスがあった」ことを検出することができる。 -Reed switch: Install a reed switch on the knife holder that holds the knife, and attach a magnet to the knife. As a result, it is possible to detect an event that “the knife has been removed from the knife holder”. In addition, by installing a reed switch on the door of a cupboard or food storage and detecting the opening / closing of the door, it is possible to detect “the object has been accessed”.
・振動センサ:キッチンの作業台に振動センサを設置し,「作業台上にオブジェクトが置かれた」「モノ(食材)を切る」,「モノ(食材)を叩いてつぶす」などの調理動作を検出することができる。 ・ Vibration sensor: A vibration sensor is installed on the workbench in the kitchen to perform cooking operations such as “An object is placed on the workbench”, “Turn off an object (foodstuff)”, and “Crush the object (foodstuff).” Can be detected.
実際のセンシング環境では,ユーザの動作やキッチンの状態の認識処理の精度が低くなったり,時には,動作や状態の変化が全く認識できなかったりする。そのため,ユーザの意志を明示的に入力してもらうようにしてもよい。例えば,インタラクション制御部24との協働によって,調理タスクの進行上確認したいユーザの動作や周囲の状態について確認する旨の問いかけを発話し,ユーザの応答によって動作やキッチンの状態を獲得する。
In the actual sensing environment, the accuracy of the recognition process of the user's action and the state of the kitchen is low, and sometimes the change of the action and the state cannot be recognized at all. Therefore, the user's will may be explicitly input. For example, by cooperating with the
または,キッチンに確認ボタンなどを設置し,ユーザが調理動作の終了時にボタンを押下するように決めておき,ボタン押下を検出して,ユーザ動作やキッチンの状態などを認識するようにしてもよい。 Alternatively, a confirmation button or the like may be installed in the kitchen, and the user may decide to press the button at the end of the cooking operation and detect the button press to recognize the user operation or the state of the kitchen. .
このようなセンサイベントを,調理タスクモデルから生成された状態遷移モデルに対応付けることによって,ユーザが,「いつ,どのオブジェクトに対して,どのような動作をしたか」というコンテキストを獲得することができる。 By associating such sensor events with the state transition model generated from the cooking task model, the user can acquire the context of “when and what object, what operation was performed”. .
図10に示すように,ユーザが調理タスクを実行している間,センサ群によって検出された,調理器具の位置,ユーザの姿勢・向き,ユーザの発話などのセンサ情報から,ユーザの動作やキッチンの状態などの内容と確信度とを含むイベント情報が生成される。例えば,カメラが,ボウルに貼付されたマーカを検出したというセンサイベントから,「調理器具が作業台に現れた」というイベント情報が生成される。 As shown in FIG. 10, while the user performs a cooking task, the user's actions and the kitchen are detected from sensor information such as the position of the cooking utensil, the user's posture and orientation, and the user's utterance detected by the sensor group. Event information including content such as the state of the event and the certainty level is generated. For example, event information “a cooking utensil has appeared on the work table” is generated from a sensor event that the camera has detected a marker attached to the bowl.
イベント情報は,調理レシピの該当するステップの状態遷移モデルに入力される。センサイベントから生成された「調理器具(ボウル)が作業台に現れた」,「調理器具(ボウル)に食材(片栗粉)が入った」などのイベント情報は,調理タスクの各ステップ(Sn,Sn+1,…)の状態遷移モデルに入力され,調理タスクにおけるコンテキストが獲得される。これによって,どのステップまたはサブステップが実行されているかを管理することが可能となる。 The event information is input to the state transition model of the corresponding step of the cooking recipe. Event information generated from the sensor event, such as “a cooking utensil (bowl) has appeared on the workbench”, “a food (boiled starch) has entered the cooking utensil (bowl)”, or the like, is included in each step (Sn, Sn + 1) of the cooking task. ,...), And the context in the cooking task is acquired. This makes it possible to manage which step or sub-step is being executed.
タスク進行制御部23は,入力されたイベント情報によって,あるステップSnの最後のサブステップが終了したというコンテキストが獲得されたときは,その調理レシピデータの次のステップSn+1へ切り替える。
When the context that the last sub-step of a certain step Sn is completed is acquired by the input event information, the task
図11および図12を用いて,調理タスクモデルとセンサイベントとの関係を説明する。ここで,調理レシピデータ(図6参照)では,ステップS1「片栗粉を水で溶く」,ステップS2「牛もも肉を細切りにする」,…,という順で進行する。 The relationship between the cooking task model and the sensor event will be described with reference to FIGS. 11 and 12. Here, in the cooking recipe data (see FIG. 6), the process proceeds in the order of step S1 “melting starch starch with water”, step S2 “slicing beef leg meat”, and so on.
図11は,ステップS1「片栗粉を水で溶く」のサブステップと,入力が期待されるセンサイベントとの関係を示す図である。 FIG. 11 is a diagram showing the relationship between the substep of step S1 “melting starch with water” and the sensor event expected to be input.
ユーザが,インタラクション制御部24により発話された調理タスクの指示に従ってキッチンの食器棚からボウルと片栗粉の容器とを取り出して作業台の上に置くと,カメラによって,ボウルと片栗粉の容器とに貼付されたマーカが検出される。このセンサイベントから生成された「ボウルのマーカが作業台に現れる」,「片栗粉の容器のマーカが作業台に現れる」というイベント情報が状態遷移モデルに入力され,「ユーザが,ボウルを作業台に置いた」,「ユーザが,片栗粉を作業台に置いた」,「ユーザが,計量スプーンを作業台に置いた」というコンテキストが獲得される。これによって,タスク進行制御部23は,ユーザが,サブステップSubS1〜3の動作を行ったことがわかる。
When the user removes the bowl and the starch starch container from the kitchen cupboard according to the instructions of the cooking task uttered by the
その後,ユーザが,片栗粉をボウルに入れることによってボウルの底に貼付されたマーカが見えなくなると,「ボウルのマーカが消える」というイベント情報が入力され,「ユーザが,片栗粉をボウルに入れた」というコンテキストが獲得できるので,ユーザがサブステップSubS4の動作を行ったことがわかる。 After that, when the user puts potato starch into the bowl and the marker affixed to the bottom of the bowl becomes invisible, the event information that “the marker on the bowl disappears” is input, and “the user puts potato starch into the bowl”. Thus, it can be seen that the user has performed the operation of sub-step SubS4.
しかし,ユーザが,計量スプーンでボウルに水を入れ,片栗粉をかき混ぜるという調理動作は,カメラや振動センサによるセンシングでは認識できないことがある。そこで,後述するインタラクション制御などによって,ユーザに対して,片栗粉を溶く動作が終了したかどうかを問い合わせ,ユーザの応答の内容から「ユーザが片栗粉を水で溶いた」というコンテキストを獲得して,ステップS1「片栗粉を水で溶く」の終了を判定する。 However, a cooking operation in which a user puts water into a bowl with a measuring spoon and stirs potato starch may not be recognized by sensing with a camera or a vibration sensor. Therefore, the user is inquired whether or not the operation of melting the starch is finished by using the interaction control described later, and acquires the context that “the user melts the starch with water” from the content of the user's response, The end of S1 “dissolve starch with water” is determined.
その後,図12に示すように,ステップS2「牛もも肉を細切りにする」に制御対象が移される。ステップS1での制御と同様に,ユーザが,システムの指示に従って,冷蔵庫から牛肉の容器,収納部から包丁,まな板を取り出し作業台の上に置くと,カメラによる容器やまな板に貼付されたマーカの検出,包丁が取り出されたことの検出などのセンサイベントから生成されたユーザのイベント情報が入力され,「ユーザが,肉を作業台に置いた」,「ユーザが,包丁を作業台に置いた」,「ユーザが,まな板を作業台に置いた」というコンテキストが獲得される。 Thereafter, as shown in FIG. 12, the control target is shifted to step S <b> 2 “slicing beef leg meat”. Similar to the control in step S1, when the user removes the beef container from the refrigerator, the kitchen knife from the storage unit, and the cutting board according to the instructions of the system and places them on the workbench, the marker attached to the container and cutting board by the camera is displayed. User event information generated from sensor events such as detection and detection of the removal of a kitchen knife is input, and "user puts meat on workbench", "user puts kitchen knife on workbench ”,“ The user places a cutting board on the workbench ”is acquired.
これによって,タスク進行制御部23は,ユーザが,サブステップSubS10〜12の動作を行ったことがわかる。その後,ユーザが肉を切っているときには,作業台の振動センサのセンサイベントから,「ユーザが,作業台でモノ(肉)を切っている」というコンテキストが獲得できるので,ユーザがサブステップSubS13,14の動作を行ったことがわかる。
As a result, the task
(4)インタラクション制御
生活タスク支援システム1とユーザとのインタラクションのインタフェースは,インタラクション制御部24,音声出力部25,ディスプレイを出力部とする映像提示部26によって実現される。
(4) Interaction control The interaction interface between the daily life
本例では,インタラクション制御部24および音声出力部25は,前出の特許文献1の対話システムを構成する対話ロボットによって実施され,例えば,既存の擬人化音声対話エージェントツールキット(Galatea Toolkit )によって実現される(詳細は,特許文献1参照のこと)。
In this example, the
インタラクション制御部24は,タスク進行制御部23においてセンサイベントと調理タスクモデルとのマッチングによって導出された調理タスクの状態(コンテキスト)が与えられると,その状態に応じたインタラクションを生成する。
When the task
ここで,生成されるインタラクションには,次のようなものがある。 Here, the following interactions are generated.
・「現在進行中のステップが終了したかどうかの問いかけ」
センサイベントによっては調理タスクの進行の状況の認識ができない場合に,進行中のステップが終了したか否かを確認するための問いかけを生成し,ユーザに対して発話する。対話ロボットを介して,ユーザに「(今やっている調理ステップは)終わりましたか?」と問いかけ,ユーザから「終わったよ。」という肯定的な応答が得られれば,「現在のステップは終了した」というコンテキストが獲得でき,制御対象が次のステップへ進められる。
・ "Ask whether the current step is finished"
When the progress of the cooking task cannot be recognized depending on the sensor event, a question for confirming whether or not the step in progress is completed is generated and the user is uttered. The interactive robot asks the user, “Is the cooking step I'm done now?”, And if the user gives a positive response, “I'm done.” Can be acquired, and the control target is advanced to the next step.
・「次のステップのガイダンス」
図13に示すように,センサ情報にもとづくコンテキストによって,ユーザが,現在行っているステップSnの最後のサブステップに対応する動作に到達したことが認識された場合に,次のステップSn+1で最初に行うべきサブステップ(動作)のガイダンスが行なわれる。そして,ユーザが指示対象のサブステップの動作に着手したときに,対応するステップの調理レシピデータを提示されるなど,ステップSn+1のタスク進行制御が行われる。
・ “Next Step Guidance”
As shown in FIG. 13, when it is recognized by the context based on the sensor information that the user has reached the operation corresponding to the last sub-step of the current step Sn, first in the next step Sn + 1. Guidance on sub-steps (operations) to be performed is performed. Then, when the user starts the operation of the sub-step to be instructed, the task progress control in step Sn + 1 is performed such that the cooking recipe data of the corresponding step is presented.
・「未実行の調理動作に対する警告」
センサイベントによって,行われるべき調理動作の実行が認識できなかった場合に,未実行のサブステップ(動作)があることを警告する。
・ "Warning for unexecuted cooking action"
When the execution of the cooking operation to be performed cannot be recognized due to the sensor event, a warning is given that there is an unexecuted sub-step (operation).
インタラクション制御部24は,調理タスク実行中のユーザの動作(イベント情報)にもとづく状態遷移モデルと同様に,ユーザの状態情報についてのモデル(ユーザ状態モデル)を生成する。
The
図14に示すように,ユーザ状態モデルは,センサイベントによって得られるユーザの状態情報,調理タスクモデルから得るタスクの状態情報,分散環境行動データベース11に蓄積されたユーザプロファイル情報(ユーザの調理の熟練度など)をもとに,ダイナミックベイジアンによって記述される。インタラクション制御部24は,このユーザ状態モデルにもとづいて,調理タスクのガイダンスの粒度(詳細度),ガイダンス提示のタイミング,ユーザへの警告,提示するメディアの選択などのインタラクション制御パラメータを決定する。
As shown in FIG. 14, the user state model includes user state information obtained from sensor events, task state information obtained from the cooking task model, user profile information stored in the distributed environment behavior database 11 (user cooking skill). Described in dynamic Bayesian based on degrees). The
これらのインタラクション制御パラメータを使うことによって,ユーザが調理初心者である場合には,システムが事細かに各ステップの調理動作をチェックし,ユーザが調理動作を行わずに次のステップに進もうとしたら警告を発するようにするなど,エラーリカバリー機能をユーザに適応したレベルで実現することが可能となる。 By using these interaction control parameters, if the user is a beginner cooking, the system will carefully check the cooking operation of each step and warn if the user tries to proceed to the next step without performing the cooking operation. The error recovery function can be realized at a level adapted to the user.
(5)調理映像検索による見直し支援
タスク進行制御部23は,ユーザから調理タスクの教師映像データの提示要求があった場合に,要求の内容から,調理タスクのステップまたはそのタスクモデルのサブステップや調理動作を特定する。
(5) Review Support by Cooking Video Search When the user requests presentation of cooking task teacher video data from the user, the task
そして,映像検索部27は,タスク進行制御部23によって特定された調理タスクのステップまたはサブステップに対応する教師映像データをタスク教材データベース13から検索し取得する。また,特定された調理タスクのステップまたはサブステップが実行された時刻をもとにユーザ映像データベース15から該当するユーザ映像データを検索し取得する。
Then, the
映像提示部26は,取得されたこれらの映像データを並べてディスプレイに表示する。
The
例えば,ユーザが,調理終了後に肉の炒め具合に問題があると感じ,自分の調理動作を見直したいと考えて「肉を炒めたときの様子が見たい。」と要求する。インタラクション制御部24では,ユーザが発した要求内容から,音声認識処理,形態素解析処理などによって,「肉」,「炒める」といった検索用キーワードを抽出する。この検索用キーワードは,タスク進行制御部23へわたされる。
For example, the user feels that there is a problem with how the meat is fried after the cooking is finished, and wants to review his cooking operation and requests “I want to see what happens when the meat is fried”. The
タスク進行制御部23は,検索用キーワードを含む調理タスクのステップをタスク教材データベース13の調理レシピデータから検索する。映像検索部27は,検索された調理タスクのステップに対応する教師映像データを取得する。さらに,タスク進行制御部23は,ユーザが該当する調理レシピのステップを行った時刻情報を分散環境行動データベース11のコンテキストデータベース層115から検索する。映像検索部27は,得られた時刻情報をもとに,ユーザ映像データベース15から該当するユーザ映像データを取得する。
The task
そして,映像提示部26は,教師映像データとユーザ映像データを並べてディスプレイに表示する。これにより,ユーザは,調理が終わった後の落ち着いた状態で,お手本となる映像と自分の調理とを比較して見直すことができる。
Then, the
以上,本発明をその実施の形態により説明したが,本発明はその主旨の範囲において種々の変形が可能であることは当然である。 While the present invention has been described above with reference to the embodiments, it is obvious that the present invention can be variously modified within the scope of the gist thereof.
例えば,生活タスク支援システム1は,前出の特許文献1の対話システムに組み込まれたシステムとして実施することができる。この場合に,生活タスク支援システム1の分散環境行動データベース11,タスクモデルデータベース12,タスク教材データベース13,ユーザ映像データベース15,センサ情報収集部21,タスクモデル取得部22,タスク進行制御部23,映像提示部26,映像検索部27などは,対話システムの生活支援システムによって実施される。また,インタラクション制御部24および音声出力部25は対話システムの対話ロボットとして実施される。
For example, the life
また,本発明では,生活タスクで使用するオブジェクト(用具,器具など)の位置検出に,RFIDタグによる位置検出システムを利用することができる。 In the present invention, a position detection system using an RFID tag can be used to detect the position of an object (tool, instrument, etc.) used in a daily task.
また,本発明は,コンピュータにより読み取られ実行される処理プログラムとして実施することができる。本発明を実現する処理プログラムは,コンピュータが読み取り可能な,可搬媒体メモリ,半導体メモリ,ハードディスクなどの適当な記録媒体に格納することができ,これらの記録媒体に記録して提供され,または,通信インタフェースを介して種々の通信網を利用した送受信により提供されるものである。 The present invention can also be implemented as a processing program that is read and executed by a computer. The processing program for realizing the present invention can be stored in an appropriate recording medium such as a portable medium memory, a semiconductor memory, and a hard disk that can be read by a computer. It is provided by transmission / reception using various communication networks via a communication interface.
1 生活タスク支援システム
11 分散環境行動データベース(DB)
12 タスクモデルデータベース(DB)
13 タスク教材データベース(DB)
15 ユーザ映像データベース(DB)
21 センサ情報収集部
22 タスクモデル取得部
23 タスク進行制御部
24 インタラクション制御部
25 音声出力部
26 映像提示部
27 映像検索部
28 状態遷移モデル記憶部
1 Living
12 Task model database (DB)
13 Task teaching material database (DB)
15 User video database (DB)
DESCRIPTION OF
Claims (10)
複数のステップで構成される生活タスクの内容および手順を複数のサブステップで記述したタスクモデルを記憶するタスクモデル記憶手段と,
前記タスクモデル記憶手段から,ユーザによって選択された生活タスクのタスクモデルを抽出するタスクモデル取得手段と,
前記ユーザへの問いかけを生成して出力する処理と当該問いかけに対する前記ユーザの応答内容を解釈する処理とを行って,前記ユーザとのインタラクションを制御するインタラクション制御手段と,
前記抽出されたタスクモデルをもとに,前記分散環境行動データベースに蓄積されるセンサ情報として検出可能なユーザの動作および状態に対応して構成された状態遷移モデルを生成するタスク記述手段と,
前記センサ情報または前記応答内容から生成された前記ユーザの動作情報または状態情報をもとに前記生活タスクにおけるユーザの動作または状態を表すコンテキストを推定し,前記状態遷移モデルから前記コンテキストに合致する前記タスクモデルのサブステップを特定するタスク進行制御手段と,
前記特定されたサブステップに関連付けられた前記生活タスクの内容を,前記ユーザに対して提示するタスク内容提示手段とを備える
ことを特徴とする生活タスク支援システム。 For the daily tasks performed by the user, task knowledge information that defines the vocabulary used in the daily tasks, task information including the operation of each daily task, the equipment used, and the place where it is executed, and the user's daily tasks are executed. Sensor information measured in a space, motion / state information related to a user's motion and state during life tasks inferred based on the sensor information, and context inferred from the motion / state information. A living task support system with a distributed environment behavior database that accumulates,
A task model storage means for storing a task model in which contents and procedures of a life task composed of a plurality of steps are described in a plurality of sub-steps;
Task model acquisition means for extracting a task model of a life task selected by the user from the task model storage means;
An interaction control means for controlling the interaction with the user by performing a process of generating and outputting an inquiry to the user and a process of interpreting a response content of the user in response to the inquiry;
Based on the extracted task model, task description means for generating a state transition model configured corresponding to a user's operation and state detectable as sensor information stored in the distributed environment behavior database;
A context representing the user's action or state in the daily life task is estimated based on the user's action information or state information generated from the sensor information or the response content, and matches the context from the state transition model Task progress control means for identifying substeps of the task model;
A life task support system, comprising: task content presentation means for presenting the content of the life task associated with the specified substep to the user.
ことを特徴とする請求項1に記載の生活タスク支援システム。 The task description means acquires task teaching material data in which the contents and procedure of the life task are described, generates a task model in which each step of the task teaching material data is described in a plurality of substeps, and the generated task model The life task support system according to claim 1, wherein a state transition model is generated from.
ことを特徴とする請求項1に記載の生活タスク支援システム。 The task description means searches the distributed environment behavior database for a context related to a life task requested by a user, and generates a task model of the life task based on information described in the searched context. The life task support system according to claim 1, wherein a state transition model is generated from the generated task model.
前記タスク記述手段は,前記タスク教材データベースから,ユーザによって選択されたタスク教材データを取得して,タスクモデルを生成する
ことを特徴とする請求項2に記載の生活タスク支援システム。 A task teaching material database that stores task teaching material data describing the contents and procedures of daily tasks is provided.
The living task support system according to claim 2, wherein the task description means obtains task teaching material data selected by a user from the task teaching material database and generates a task model.
前記教師映像データベースから,前記特定された生活タスクのサブステップに関連する教師映像データを検索する映像検索手段とを備えるとともに,
前記タスク内容提示手段は,前記検索された教師映像データを出力する
ことを特徴とする請求項1または請求項2のいずれか一項に記載の生活タスク支援システム。 A teacher video database for storing teacher video data recording a model action in each step of the life task;
Video search means for searching for teacher video data related to the sub-steps of the identified daily tasks from the teacher video database;
The life task support system according to claim 1, wherein the task content presentation unit outputs the searched teacher video data.
前記ユーザ映像データベースに,前記ユーザ映像データを蓄積するユーザ映像蓄積処理手段とを備えるとともに,
前記映像検索手段は,前記ユーザから映像提示要求があった場合に,前記教師映像データベースから前記要求にかかる動作または状態または生活タスクのステップのいずれかに該当する教師映像データを検索し,前記ユーザ映像データベースから前記要求にかかるステップを実行したユーザ映像データを検索し,
前記タスク内容提示手段は,前記検索された教師映像データおよびユーザ映像データを出力する
ことを特徴とする請求項5に記載の生活タスク支援システム。 A user video database for storing user video data recording the actions of the user who is performing the life task;
The user video database comprises user video storage processing means for storing the user video data,
When there is a video presentation request from the user, the video search means searches the teacher video database for teacher video data corresponding to either the operation or state relating to the request or the step of a living task, and the user Search the video database for user video data that has executed the step related to the request,
The living task support system according to claim 5, wherein the task content presentation means outputs the searched teacher video data and user video data.
前記ユーザとの対話を生成するための言語情報を蓄積する対話用辞書データベースと,
前記コンテキストをもとにユーザに対する問いかけを生成する問いかけ生成手段と,
前記生成された問いかけを音声データに変換して発話する音声合成手段と,
前記ユーザが発話した音声データの内容を認識する音声認識手段とを備える
ことを特徴とする請求項1ないし請求項6のいずれか一項に記載の生活タスク支援システム。 The interaction control means includes:
A dictionary database for dialogue for storing language information for generating dialogue with the user;
A question generating means for generating a question to the user based on the context;
Speech synthesis means for converting the generated question into speech data and speaking;
The living task support system according to any one of claims 1 to 6, further comprising: a voice recognition unit that recognizes the content of voice data spoken by the user.
ことを特徴とする請求項1ないし請求項7のいずれか一項に記載の生活タスク支援システム。 The interaction control means generates a user state model for the user state information from the state of the user obtained from the sensor information or the progress state of the life task obtained from the context, and based on the user state model The living task support system according to any one of claims 1 to 7, further comprising: calculating a predetermined parameter for determining the content of the interaction.
複数のステップで構成される生活タスクの内容および手順が記述されたタスク教材データと,前記生活タスクの各ステップにおいて手本となる動作を記録した教師映像データとを記憶するタスク教材データベースと,
前記ユーザから映像提示要求があった場合に,前記分散環境行動データベースをもとに当該要求にかかる生活タスクを特定し,当該特定した生活タスクにおいて前記要求に合致する動作または状態を表すコンテキストを推定し,前記推定したコンテキストをもとに前記タスク教材データから当該要求にかかる生活タスクのステップを特定する提示対象特定手段と,
前記特定されたステップに対応する教師映像データを,前記タスク教材データベースから抽出する映像検索手段と,
前記抽出された教師映像データを出力する映像提示手段とを備える
ことを特徴とする生活タスク支援システム。 For the daily tasks performed by the user, task knowledge information that defines the vocabulary used in the daily tasks, task information including the operation of each daily task, the equipment used, and the place where it is executed, and the user's daily tasks are executed. Sensor information measured in a space, motion / state information related to a user's motion and state during life tasks inferred based on the sensor information, and context inferred from the motion / state information. A living task support system with a distributed environment behavior database that accumulates,
A task teaching material database storing task teaching material data in which contents and procedures of a living task composed of a plurality of steps are described, and teacher video data in which a model operation is recorded in each step of the living task;
When there is a video presentation request from the user, a life task related to the request is specified based on the distributed environment behavior database, and a context representing an operation or a state that matches the request in the specified life task is estimated. Presenting target specifying means for specifying a step of a living task related to the request from the task teaching material data based on the estimated context;
Video search means for extracting teacher video data corresponding to the identified step from the task teaching material database;
A life task support system comprising: video presentation means for outputting the extracted teacher video data.
前記ユーザ映像データベースに,前記ユーザ映像データを蓄積するユーザ映像蓄積処理手段とを備えるとともに,
前記映像検索手段は,前記ユーザ映像データベースから前記要求にかかるステップを実行したユーザ映像データを検索し,
前記映像提示手段は,前記検索された教師映像データおよびユーザ映像データを出力する
ことを特徴とする請求項9に記載の生活タスク支援システム。
A user video database for storing user video data recording the actions of the user who is performing the life task;
The user video database comprises user video storage processing means for storing the user video data,
The video search means searches the user video data from the user video database for user video data that has undergone the request step,
The living task support system according to claim 9, wherein the video presentation unit outputs the searched teacher video data and user video data.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2006183101A JP2008015585A (en) | 2006-07-03 | 2006-07-03 | Living task support system |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2006183101A JP2008015585A (en) | 2006-07-03 | 2006-07-03 | Living task support system |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2008015585A true JP2008015585A (en) | 2008-01-24 |
Family
ID=39072562
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2006183101A Withdrawn JP2008015585A (en) | 2006-07-03 | 2006-07-03 | Living task support system |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2008015585A (en) |
Cited By (16)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2010108504A (en) * | 2008-10-31 | 2010-05-13 | Korea Electronics Telecommun | Robot software component thread processsing system and method |
WO2012131962A1 (en) * | 2011-03-30 | 2012-10-04 | 富士通株式会社 | Task execution control device, task execution control system, and task execution control method |
US8689217B2 (en) | 2008-10-31 | 2014-04-01 | Electronics And Telecommunications Research Institute | System and method for thread processing robot software components responsive to periodic, dedicated, and passive modes |
JP2015152948A (en) * | 2014-02-10 | 2015-08-24 | 日本電信電話株式会社 | Life log recording system and program thereof |
WO2016072117A1 (en) * | 2014-11-07 | 2016-05-12 | ソニー株式会社 | Information processing device, control method, and storage medium |
WO2016129159A1 (en) * | 2015-02-13 | 2016-08-18 | ソニー株式会社 | Information processing system, information processing device, control method, and storage medium |
JP2017111837A (en) * | 2011-07-05 | 2017-06-22 | サウジ アラビアン オイル カンパニー | System, computer medium and method to be executed by computer for providing health information for employees by augmented reality display |
JP2017164851A (en) * | 2016-03-16 | 2017-09-21 | Kddi株式会社 | Work support apparatus and program |
CN108363329A (en) * | 2017-01-27 | 2018-08-03 | 松下知识产权经营株式会社 | Information processing unit and information processing method |
JP2019164585A (en) * | 2018-03-20 | 2019-09-26 | ヤフー株式会社 | Information providing device, information providing method, and information providing program |
JP2019185185A (en) * | 2018-04-03 | 2019-10-24 | 東京瓦斯株式会社 | Image processing system and program |
JP2019185184A (en) * | 2018-04-03 | 2019-10-24 | 東京瓦斯株式会社 | Image processing system and program |
JP2020177487A (en) * | 2019-04-19 | 2020-10-29 | 株式会社Lixil | Support equipment and support programs |
CN113195177A (en) * | 2018-12-27 | 2021-07-30 | 川崎重工业株式会社 | Robot control device, robot system, and robot control method |
WO2023053421A1 (en) * | 2021-09-30 | 2023-04-06 | 株式会社ウフル | Information processing system, information processing device, information processing program, and information processing method |
JP7429926B2 (en) | 2020-11-27 | 2024-02-09 | 日本電信電話株式会社 | Communication support devices, methods and programs |
-
2006
- 2006-07-03 JP JP2006183101A patent/JP2008015585A/en not_active Withdrawn
Cited By (32)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8689217B2 (en) | 2008-10-31 | 2014-04-01 | Electronics And Telecommunications Research Institute | System and method for thread processing robot software components responsive to periodic, dedicated, and passive modes |
JP2010108504A (en) * | 2008-10-31 | 2010-05-13 | Korea Electronics Telecommun | Robot software component thread processsing system and method |
US9342356B2 (en) | 2011-03-30 | 2016-05-17 | Fujitsu Limited | Task execution control for generating context information of a user to locate available services |
WO2012131962A1 (en) * | 2011-03-30 | 2012-10-04 | 富士通株式会社 | Task execution control device, task execution control system, and task execution control method |
JPWO2012131962A1 (en) * | 2011-03-30 | 2014-07-24 | 富士通株式会社 | Task execution control device, task execution control system, and task execution control method |
JP5682705B2 (en) * | 2011-03-30 | 2015-03-11 | 富士通株式会社 | Task execution control device, task execution control system, and task execution control method |
JP2017111837A (en) * | 2011-07-05 | 2017-06-22 | サウジ アラビアン オイル カンパニー | System, computer medium and method to be executed by computer for providing health information for employees by augmented reality display |
JP2015152948A (en) * | 2014-02-10 | 2015-08-24 | 日本電信電話株式会社 | Life log recording system and program thereof |
WO2016072117A1 (en) * | 2014-11-07 | 2016-05-12 | ソニー株式会社 | Information processing device, control method, and storage medium |
JP2019204529A (en) * | 2014-11-07 | 2019-11-28 | ソニー株式会社 | Information processing system, control method, storage medium, and program |
JPWO2016072117A1 (en) * | 2014-11-07 | 2017-08-17 | ソニー株式会社 | Information processing apparatus, control method, and storage medium |
US11640589B2 (en) | 2014-11-07 | 2023-05-02 | Sony Group Corporation | Information processing apparatus, control method, and storage medium |
JP7001181B2 (en) | 2014-11-07 | 2022-01-19 | ソニーグループ株式会社 | Information processing systems, control methods, and programs |
US11010726B2 (en) | 2014-11-07 | 2021-05-18 | Sony Corporation | Information processing apparatus, control method, and storage medium |
JP2021061053A (en) * | 2014-11-07 | 2021-04-15 | ソニー株式会社 | Information processing system, control method, and program |
WO2016129159A1 (en) * | 2015-02-13 | 2016-08-18 | ソニー株式会社 | Information processing system, information processing device, control method, and storage medium |
JPWO2016129159A1 (en) * | 2015-02-13 | 2017-11-24 | ソニー株式会社 | Information processing system, information processing apparatus, control method, and storage medium |
US11615177B2 (en) | 2015-02-13 | 2023-03-28 | Sony Corporation | Information processing system, information processing device, control method, and storage medium |
CN107209562A (en) * | 2015-02-13 | 2017-09-26 | 索尼公司 | Information processing system, information processor, control method and storage media |
US10733282B2 (en) | 2015-02-13 | 2020-08-04 | Sony Corporation | Information processing system, information processing device, control method, and storage medium |
JP2017164851A (en) * | 2016-03-16 | 2017-09-21 | Kddi株式会社 | Work support apparatus and program |
CN108363329A (en) * | 2017-01-27 | 2018-08-03 | 松下知识产权经营株式会社 | Information processing unit and information processing method |
JP2019164585A (en) * | 2018-03-20 | 2019-09-26 | ヤフー株式会社 | Information providing device, information providing method, and information providing program |
JP7186009B2 (en) | 2018-04-03 | 2022-12-08 | 東京瓦斯株式会社 | Image processing system and program |
JP2019185184A (en) * | 2018-04-03 | 2019-10-24 | 東京瓦斯株式会社 | Image processing system and program |
JP2019185185A (en) * | 2018-04-03 | 2019-10-24 | 東京瓦斯株式会社 | Image processing system and program |
CN113195177A (en) * | 2018-12-27 | 2021-07-30 | 川崎重工业株式会社 | Robot control device, robot system, and robot control method |
CN113195177B (en) * | 2018-12-27 | 2024-05-10 | 川崎重工业株式会社 | Robot control device, robot system, and robot control method |
JP2020177487A (en) * | 2019-04-19 | 2020-10-29 | 株式会社Lixil | Support equipment and support programs |
JP7316831B2 (en) | 2019-04-19 | 2023-07-28 | 株式会社Lixil | Support device and support program |
JP7429926B2 (en) | 2020-11-27 | 2024-02-09 | 日本電信電話株式会社 | Communication support devices, methods and programs |
WO2023053421A1 (en) * | 2021-09-30 | 2023-04-06 | 株式会社ウフル | Information processing system, information processing device, information processing program, and information processing method |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2008015585A (en) | Living task support system | |
US10992491B2 (en) | Smart home automation systems and methods | |
EP4005186B1 (en) | Provision of a mixed reality service | |
KR20150045683A (en) | Method for providing custumized food life service and custumized food life service providing appratus | |
JP6941134B2 (en) | Assistance systems, methods, and programs to assist users in performing tasks | |
CN103717358B (en) | Control system, display control method and non-transient computer readable storage medium | |
KR102466438B1 (en) | Cognitive function assessment system and method of assessing cognitive funtion | |
Quintana et al. | Augmented reality annotations to assist persons with Alzheimers and their caregivers | |
JP6713057B2 (en) | Mobile body control device and mobile body control program | |
JP6173281B2 (en) | Environment understanding device and environment understanding method | |
EP3446252A1 (en) | Identifying entities based on sensor data | |
US10952658B2 (en) | Information processing method, information processing device, and information processing system | |
CN109151994B (en) | Indoor positioning method and equipment | |
KR20110035380A (en) | Network based recipe information providing system and method | |
KR20150117603A (en) | Identifying movements using a motion sensing device coupled with an associative memory | |
CN112424731B (en) | Information processing apparatus, information processing method, and recording medium | |
Kranz et al. | Sensing technologies and the player-middleware for context-awareness in kitchen environments | |
JP2003233715A (en) | System and method for living information administration and living information processing device | |
CN112417282B (en) | Information recommendation method, food storage equipment and server | |
CN118586482A (en) | Three-dimensional scene graph processing method, system and medium based on embodied intelligence | |
CN112199406A (en) | Information recommendation method, food material storage device and server | |
TW202022891A (en) | System and method of interactive health assessment | |
JP4058031B2 (en) | User action induction system and method | |
JP7316916B2 (en) | Management device and program | |
JP2007304692A (en) | Event retrieval device, method and program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A300 | Application deemed to be withdrawn because no request for examination was validly filed |
Free format text: JAPANESE INTERMEDIATE CODE: A300 Effective date: 20091006 |