[go: up one dir, main page]

JP2008015585A - Living task support system - Google Patents

Living task support system Download PDF

Info

Publication number
JP2008015585A
JP2008015585A JP2006183101A JP2006183101A JP2008015585A JP 2008015585 A JP2008015585 A JP 2008015585A JP 2006183101 A JP2006183101 A JP 2006183101A JP 2006183101 A JP2006183101 A JP 2006183101A JP 2008015585 A JP2008015585 A JP 2008015585A
Authority
JP
Japan
Prior art keywords
task
user
life
video
model
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2006183101A
Other languages
Japanese (ja)
Inventor
Hirotada Ueda
博唯 上田
Mutsuo Sano
睦夫 佐野
Kenzaburo Miyawaki
健三郎 宮脇
Masaki Chikama
正樹 近間
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
National Institute of Information and Communications Technology
Original Assignee
National Institute of Information and Communications Technology
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by National Institute of Information and Communications Technology filed Critical National Institute of Information and Communications Technology
Priority to JP2006183101A priority Critical patent/JP2008015585A/en
Publication of JP2008015585A publication Critical patent/JP2008015585A/en
Withdrawn legal-status Critical Current

Links

Images

Landscapes

  • User Interface Of Digital Computer (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)

Abstract

【課題】 複数ステップで構成される生活タスクをユーザが実行する場合に,ステップに応じた情報やガイダンスを提示して支援する。
【解決手段】 タスクモデル取得部22は,タスク教材データベース13から,ユーザが選択した生活タスクの各ステップを,より詳細なサブステップで表すタスクモデルに変換し,状態遷移モデルを生成する。タスク進行制御部23は,センサ情報から得たユーザの動作/状態からコンテキストを取得し,このコンテキストに合致する状態遷移モデルのサブステップを特定する。インタラクション制御部24は,このサブステップのタスク内容を,映像提示部26を介してユーザに提示し,音声出力部25を介して音声ガイダンスを行って,インタラクションを制御する。映像検索部27は,要求された生活タスクのステップの教師映像データ,ユーザが行った作業の映像データとを検索し,映像提示部26で出力する。
【選択図】 図1
PROBLEM TO BE SOLVED: To support by presenting information and guidance according to a step when a user executes a life task composed of a plurality of steps.
A task model acquisition unit 22 converts each step of a life task selected by a user from a task teaching material database 13 into a task model represented by a more detailed substep, and generates a state transition model. The task progress control unit 23 acquires a context from the user's action / state obtained from the sensor information, and specifies a substep of the state transition model that matches this context. The interaction control unit 24 presents the task contents of this sub-step to the user via the video presentation unit 26 and performs voice guidance via the voice output unit 25 to control the interaction. The video retrieval unit 27 retrieves the teacher video data of the requested daily task step and the video data of the work performed by the user, and outputs it by the video presentation unit 26.
[Selection] Figure 1

Description

本発明は,対話機能を用いて,ユーザの生活タスクを支援する生活タスク支援システムに関する。より詳しくは,複数のステップで構成されるような生活タスクをユーザが行っている場合に,実行中のユーザの動作または置かれた状況などを表すコンテキストをセンサ情報から推論し,インタラクティブな対話機能を用いてユーザを支援する技術に関する。   The present invention relates to a life task support system that supports a user's life task using an interactive function. More specifically, when a user performs a daily task consisting of multiple steps, an interactive dialog function is inferred from the sensor information to indicate the context representing the action of the user being executed or the situation being placed. TECHNICAL FIELD OF THE INVENTION

生活タスクとは,ユーザの一般的な生活,その他の様々な活動において行われる,ある目的のための作業や動作であって,時系列的な複数のステップで構成されるものをいう。   The life task is a work or operation for a certain purpose performed in a user's general life or other various activities, and is composed of a plurality of time-series steps.

ユビキタスな環境を背景にして,ユーザの居住空間などに設置されて自律的にユーザの生活を支援する生活支援システムが実現されている。この生活支援システムは,快適な環境の維持やユーザの活動支援のために,各種のセンサ情報にもとづいて環境やユーザの行動を推論し,ネットワークで接続されたアプライアンス(通信機能を備えた家電機器),情報端末装置などを制御してユーザの生活を支援するための種々のサービスを提供するものである。   With a ubiquitous environment as a background, a life support system that is installed in a user's living space and autonomously supports the user's life has been realized. In order to maintain a comfortable environment and support user activities, this life support system infers the environment and user behavior based on various sensor information, and is connected to a network-connected appliance (home appliance with a communication function). ), And provides various services for supporting the life of the user by controlling the information terminal device and the like.

例えば,非特許文献1の生活支援システムは,センサ情報をもとにユーザの動作・姿勢,部屋の状況を分析してユーザがリラックスした状態であると推論すると,アプライアンスの一つであるオーディオシステムによってユーザの嗜好にあった音楽を流したり,または,エアコンによって室内の温湿度を維持したりして,ユーザがこれらのアプライアンスを意識的に操作することなく快適な生活環境を実現できるようにしている。   For example, the life support system of Non-Patent Document 1 analyzes the user's movement / posture and room conditions based on sensor information and infers that the user is in a relaxed state. By playing music that suits the user's preference, or maintaining indoor temperature and humidity with an air conditioner, the user can realize a comfortable living environment without consciously operating these appliances. Yes.

また,本発明者は,特許文献1の対話システムに示すように,ユーザの生活環境全体に構築されてアプライアンスを自立的に制御して生活支援のサービスを提供する生活支援システムと,生活支援システムが提供するサービスの説明などをユーザと音声によって対話する対話ロボットとを備えるシステムを実現している(参照,特許文献1)。
美濃導彦,「ゆかりプロジェクトの目的と概要――UKARIプロジェクト報告No.1」,情報処理学会 第66回全国大会,2004年 WO2005/086051A1
In addition, as shown in the dialogue system of Patent Document 1, the present inventor has a life support system that provides a life support service by independently controlling an appliance that is constructed in the entire living environment of a user, and a life support system. Has realized a system including an interactive robot that interacts with a user by voice to explain the service provided by the user (see Patent Document 1).
Mino Tetsuhiko, “The Purpose and Summary of the Yukari Project: UKARI Project Report No. 1”, IPSJ 66th National Convention, 2004 WO2005 / 086051A1

このように,生活支援システムは,ユーザの動作やユーザを取り巻く環境などをセンシングした情報をもとに推論したコンテキストに応じて,様々な生活サービスを実行することができる。例えば,ユーザの動作や取り巻く環境(コンテキスト)などに応じて,「エアコンによって室内の温湿度を調節する」など,状況適応的にアプライアンスを制御するサービスを実行することができる。   As described above, the life support system can execute various life services according to the context inferred based on information obtained by sensing the user's operation and the environment surrounding the user. For example, it is possible to execute a service for controlling the appliance adaptively to the situation, such as “adjusting the temperature and humidity of the room with an air conditioner” according to the user's operation and surrounding environment (context).

しかし,ユーザの生活タスクの内容にもとづいて,より高度な支援が行えるようなサービスが求められている。例えば,調理タスク,清掃タスク,介護タスクなど,所定の目的のために一連の手順に従って行うような作業を行う場合に,ユーザの動作や周囲の状況などのコンテキストを推論して,タスクを実行中のユーザの動作や状態に応じた適切な支援を行えるサービスが求められている。   However, there is a need for a service that can provide more advanced support based on the contents of the user's daily tasks. For example, when performing tasks such as cooking tasks, cleaning tasks, and nursing tasks that are performed according to a series of procedures for a predetermined purpose, the task is being executed by inferring contexts such as user actions and surrounding conditions. There is a need for a service that can provide appropriate support according to the user's actions and conditions.

生活タスクの一つである調理タスクを支援する従来のシステムとして,調理中のユーザの動作をビデオカメラで撮影しておき,ユーザが何らかの事情で調理タスクの動作を一旦中断し,その後に調理タスクに復帰した場合に,中断直前のユーザの動作が録画されたビデオデータを再生することによって,ユーザが行っていた動作を確認できるようにするシステムが知られている。しかし,この従来システムでは,システム側で,調理タスクにおける手順や方法についての5W1Hの情報,すなわち「誰が,何を,いつ,どこで,どのように行う」という情報が蓄積されていないため,時系列的に記録されたユーザのビデオデータから,単に特定の時点(中断時)の直前に行っていた部分を再生してユーザの動作を確認するだけであった。   As a conventional system that supports cooking tasks, which is one of the daily tasks, the user's actions during cooking are shot with a video camera, and the user temporarily stops cooking tasks for some reason, and then the cooking task There is known a system that enables the user's operation to be confirmed by playing back video data in which the user's operation immediately before the interruption is recorded when the operation is restored. However, in this conventional system, since 5W1H information about the procedure and method in the cooking task, that is, information “who, what, when, where, how” is not accumulated on the system side, From the user's recorded video data, the part that was performed just before the specific time (at the time of interruption) was simply played back to confirm the user's operation.

調理タスクは,所定の複数の手順(ステップ)があり,各ステップでは所定の動作を行うように規定されている。この規定された動作をステップ順に行えたときに,調理タスクが成功したと考えられる。   The cooking task has a plurality of predetermined procedures (steps), and each step is defined to perform a predetermined operation. The cooking task is considered successful when the specified actions can be performed in the order of steps.

したがって,行うべきステップを抜かしてしまったり,ステップで行うべき動作を完全に行えなかったりしたときは,調理タスクが失敗してしまうことになる。例えば,調理中のユーザが,電話応答のために一時的に調理を中断し,その後に調理に戻ったときに,「調味料を既に入れたか,未だ入れていなかったか」を思い出せないことがある。このような状況では,調理タスク中の「味付け」というステップが抜けたり,または重複して行われたりするおそれがあり,調理タスクの失敗につながる。   Therefore, if a step to be performed is omitted or an operation to be performed in a step cannot be completely performed, the cooking task will fail. For example, a user who is cooking may not be able to remember “whether seasoning has already been added or not yet added” when cooking is temporarily interrupted due to a telephone response and then returned to cooking. . In such a situation, there is a possibility that the step of “seasoning” during the cooking task may be missed or performed repeatedly, leading to failure of the cooking task.

また,ユーザが初心者の場合には,調理の各ステップで,所定の動作を行っているつもりでも,本人が気づかないうちにステップを抜かしていたり,間違った動作をしたりするおそれがあり,調理タスクを失敗することになる。   In addition, if the user is a beginner, even if he intends to perform a predetermined action at each step of cooking, there is a risk that he / she may miss the step or perform an incorrect action without his / her awareness. The task will fail.

このような失敗をできるだけ排除できるように,ユーザが行っているステップに応じた情報やガイダンスを提供する必要がある。   In order to eliminate such failures as much as possible, it is necessary to provide information and guidance according to the steps the user is performing.

また,ユーザ側は,調理タスク終了後に「どのステップで失敗したのか」,「どのような動作の誤りがあったのか」など失敗の原因となるような状況を確認したいという要求がある。   In addition, there is a request on the user side to confirm a situation that causes a failure such as “which step has failed” or “what operation error has occurred” after the cooking task is completed.

本発明の目的は,ユーザとのインタラクション機能を備えた生活タスク支援システムにおいて,センサ情報からユーザの動作や状況を表すコンテキストを獲得し,複数のステップによって構成される生活タスクをユーザが実行している場合に,ユーザが実行中のステップに応じた情報やガイダンスを提示して,ユーザの生活タスクを支援するシステムを提供することである。   It is an object of the present invention to acquire a context representing a user's operation and situation from sensor information in a living task support system having an interaction function with a user, and the user executes a living task composed of a plurality of steps. In this case, the system provides a system that supports the user's life task by presenting information and guidance according to the step being performed by the user.

また,本発明の別の目的は,ユーザが生活タスクを実行した後,生活タスク実行の手本動作となる情報,さらにはユーザが行った動作内容などをユーザに提示して,ユーザの生活タスクを支援するシステムを提供することである。   In addition, another object of the present invention is to present the user with the life task execution information after the user has performed the life task, and further present the user's life task. It is to provide a system that supports

本発明は,ユーザが行う生活タスクを支援するために,ユーザの環境,生活タスクで行われる動作についての暗黙的な知識情報などを蓄積し,生活タスクをモデル化する機能,センシングされた情報から,ユーザの動作や取り巻く状況を表すコンテキストを推定する機能,および,生活タスク実行中のユーザが必要な情報を,適切なタイミング,メディアかつ内容の粒度でインタラクティブに提示する機能を制御することを特徴とする。   The present invention accumulates implicit knowledge information about the user's environment, operations performed in the living task, etc., and functions to model the living task, and sensed information to support the living task performed by the user. , A function that estimates the context that represents the user's actions and surrounding circumstances, and a function that interactively presents the information required by the user who is performing a daily task at an appropriate timing, media, and content granularity And

本発明は,ユーザが行う生活タスクについて,生活タスクで使用される語彙を規定するタスク知識情報と,各生活タスクの動作,使用する器具,および実行される場所を含むタスク情報と,ユーザの生活タスクが実行される空間内で計測されたセンサ情報と,前記センサ情報をもとに推論された生活タスク実行中のユーザの動作および状態に関する動作/状態情報と,前記動作/状態情報から推論されるコンテキストとを蓄積する分散環境行動データベースを備える生活タスク支援システムであって,1)複数のステップで構成される生活タスクの内容および手順を複数のサブステップで記述したタスクモデルを記憶するタスクモデル記憶手段と,2)前記タスクモデル記憶手段から,ユーザによって選択された生活タスクのタスクモデルを抽出するタスクモデル取得手段と,3)前記ユーザへの問いかけを生成して出力する処理と当該問いかけに対する前記ユーザの応答内容を解釈する処理とを行って,前記ユーザとのインタラクションを制御するインタラクション制御手段と,4)前記抽出されたタスクモデルをもとに,前記分散環境行動データベースに蓄積されるセンサ情報として検出可能なユーザの動作および状態に対応して構成された状態遷移モデルを生成するタスク記述手段と,5)前記センサ情報または前記応答内容から生成された前記ユーザの動作情報または状態情報をもとに前記生活タスクにおけるユーザの動作または状態を表すコンテキストを推定し,前記状態遷移モデルから前記コンテキストに合致する前記タスクモデルのサブステップを特定するタスク進行制御手段と,6)前記特定されたサブステップに関連付けられた前記生活タスクの内容を,前記ユーザに対して提示するタスク内容提示手段とを備えることを特徴とする。   The present invention relates to task knowledge information that defines the vocabulary used in the life task, task information including the operation of each life task, the equipment used, and the place where it is executed, and the life of the user. Inferred from the sensor information measured in the space where the task is executed, the action / state information related to the user's action and state during the life task execution inferred from the sensor information, and the action / state information. A living task support system having a distributed environment behavior database for storing a context, and 1) a task model storing a task model in which contents and procedures of a living task composed of a plurality of steps are described in a plurality of substeps Storage means, and 2) a task model of a life task selected by the user from the task model storage means. A task model acquisition means for outputting, and 3) an interaction control for controlling an interaction with the user by performing a process of generating and outputting an inquiry to the user and a process of interpreting a response content of the user in response to the inquiry And 4) a task for generating a state transition model configured in accordance with user actions and states that can be detected as sensor information stored in the distributed environment behavior database based on the extracted task model And 5) estimating a context representing the user's action or state in the life task based on the user's action information or state information generated from the sensor information or the response content, and from the state transition model Task progress that identifies substeps of the task model that match the context And control means, 6) the contents of the life tasks associated with the identified sub-step, characterized in that it comprises a task content presenting means for presenting to the user.

本発明は,ユーザによって指定された生活タスクを支援するために,生活タスクの内容および手順を複数のサブステップで記述したタスクモデルを記憶するタスクモデル記憶手段を備える。そして,タスクモデル取得手段によって,タスクモデル記憶手段から,ユーザによって選択された生活タスクのタスクモデルを取得する。さらに,タスク記述手段によって,このタスクモデルをもとに,センサ情報として検出可能なユーザの動作および状態に対応して構成された状態遷移モデルを生成する。   The present invention includes task model storage means for storing a task model in which the contents and procedure of a living task are described in a plurality of substeps in order to support the living task designated by the user. Then, the task model acquisition unit acquires the task model of the life task selected by the user from the task model storage unit. Further, the task description means generates a state transition model configured corresponding to the user's operation and state that can be detected as sensor information based on this task model.

そして,タスク進行制御手段によって,センサ情報および応答内容から生成された前記ユーザの動作/状態情報をもとに生活タスクにおけるユーザの動作または状態を表すコンテキストを推定し,この状態遷移モデルからコンテキストに合致するタスクモデルのサブステップを特定する。そして,タスク内容提示手段によって,特定されたサブステップに関連付けられた生活タスクの内容を,ユーザに対して提示する。また,インタラクション制御手段によって,生活タスクの進行中に,コンテキストにもとづいてユーザへの問いかけを生成し,この問いかけを音声データに変換して出力し,または,問いかけに対してユーザが発話した音声データを音声認識して問いかけに対する応答内容を解釈する。   Then, the task progress control means estimates a context representing the user's action or state in the life task based on the user's action / state information generated from the sensor information and the response content, and the context is converted from this state transition model. Identify matching task model substeps. And the content of the life task linked | related with the specified substep is shown with respect to a user by a task content presentation means. In addition, the interaction control means generates a question to the user based on the context while the life task is in progress, and converts this question into voice data and outputs it, or voice data uttered by the user in response to the question The voice response is interpreted and the response content to the question is interpreted.

これによって,生活タスクを実行中のユーザに対して,実行中のステップに応じた情報を提示させることができる。   As a result, information corresponding to the step being executed can be presented to the user who is executing the life task.

また,本発明は,前記タスク記述手段によって,生活タスクの内容および定義が記述されたタスク教材データを取得し,このタスク教材データの各ステップを複数のサブステップで記述したタスクモデルを生成する。   In the present invention, the task description means acquires task teaching material data in which the contents and definition of the life task are described, and generates a task model in which each step of the task teaching material data is described in a plurality of substeps.

さらに,前記タスク記述手段によって,分散環境行動データベースから,ユーザに要求された生活タスクに関連するコンテキストを検索し,このコンテキストに記述された情報をもとに,生活タスクのタスクモデルを生成し,このタスクモデルから状態遷移モデルを生成する。   Further, the task description means searches the distributed environment behavior database for a context related to the life task requested by the user, generates a task model of the life task based on the information described in the context, A state transition model is generated from this task model.

また,本発明は,生活タスクの内容および手順が記述されたタスク教材データを記憶するタスク教材データベースを備えて,前記タスク記述手段によって,このタスク教材データベースからユーザによって選択されたタスク教材データを取得する。   The present invention further includes a task teaching material database for storing task teaching material data in which the contents and procedures of daily tasks are described, and the task teaching data is acquired from the task teaching material database by the task description means. To do.

また,本発明は,生活タスクの各ステップにおいて手本となる動作を記録した教師映像データを記憶する教師映像データベースと,教師映像データベースから,特定された生活タスクのステップに関連する教師映像データを検索する映像検索手段とを備え,前記タスク内容提示手段によって,検索された教師映像データを出力する。   In addition, the present invention provides a teacher video database that stores teacher video data that records a model action at each step of the life task, and teacher video data related to the identified life task step from the teacher video database. Video search means for searching, and the searched teacher video data is output by the task content presentation means.

また,本発明は,生活タスクを実行中のユーザの動作を記録したユーザ映像データを記憶するユーザ映像データベースと,ユーザ映像データベースにユーザ映像データを蓄積するユーザ映像蓄積処理手段とを備え,前記映像検索手段によって,ユーザから映像提示の要求があった場合に,教師映像データベースから要求にかかる動作または状態または生活タスクのステップのいずれかに該当する教師映像データを検索し,ユーザ映像データベースから要求にかかるユーザ映像データを検索し,前記タスク内容提示手段によって,検索された教師映像データおよびユーザ映像データを,例えばユーザが比較可能な状態で表示するなどして,出力することができる。これによって,ユーザが行った動作内容と生活タスク実行の手本動作となる情報とを共にユーザに提示させて,ユーザに比較させることができる。   In addition, the present invention includes a user video database that stores user video data that records the actions of a user who is performing a life task, and user video storage processing means that stores user video data in the user video database. When there is a video presentation request from the user by the retrieval means, the teacher video database is searched for the teacher video data corresponding to either the requested action or state or the life task step, and the request is received from the user video database. Such user video data is retrieved, and the task content presentation means can output the retrieved teacher video data and user video data, for example, in a state that the user can compare. Accordingly, the user can present both the contents of the action performed by the user and the information used as a model action for performing the life task, and can be compared with the user.

また,本発明の前記インタラクション制御手段は,ユーザとの対話を生成するための言語情報を蓄積する対話用辞書データベースと,コンテキストをもとにユーザに対する問いかけを生成する問いかけ生成手段と,生成された問いかけを音声データに変換して発話する音声合成手段と,ユーザが発話した音声データの内容を認識する音声認識手段とを備えることを特徴とする。これによって,ユーザと音声データによるインタラクションを実現することができる。これによって,音声によってユーザとインタラクションを行うことができる。   Further, the interaction control means of the present invention includes a dialog dictionary database for accumulating language information for generating a dialog with a user, a question generating means for generating a query for the user based on the context, It is characterized by comprising voice synthesis means for converting a question into voice data and speaking, and voice recognition means for recognizing the contents of voice data spoken by a user. As a result, it is possible to realize interaction with the user by voice data. This allows interaction with the user by voice.

また,本発明は,インタラクション制御手段によって,センサ情報から得られるユーザの状態またはコンテキストによって得られる生活タスクの進行状態から,ユーザの状態情報についてのユーザ状態モデルを生成し,このユーザ状態モデルをもとに,インタラクションの内容を決定するための所定のパラメータを算出する。所定のパラメータとは,例えば,ユーザに知らせる内容,内容の粒度(詳細さの程度),使用するメディア(音声,イメージ,テキストなど)を決定するものである。これによって,ユーザのスキルなどに合わせた内容でインタラクションを行うことができる。   Further, the present invention generates a user state model for the user state information from the user state obtained from the sensor information or the progress state of the life task obtained from the context by the interaction control means, and the user state model is also generated. And a predetermined parameter for determining the content of the interaction. The predetermined parameters are, for example, contents to be notified to the user, content granularity (degree of detail), and media to be used (speech, image, text, etc.). As a result, the user can interact with the contents according to the skill of the user.

また,本発明の生活タスク支援システムは,1)複数のステップで構成される生活タスクの内容および手順が記述されたタスク教材データと,生活タスクの各ステップにおいて手本となる動作を記録した教師映像データとを記憶するタスク教材データベースと,2)ユーザから映像提示要求があった場合に,分散環境行動データベースをもとに要求にかかる生活タスクを特定し,特定した生活タスクにおいて要求に合致する動作または状態を表すコンテキストを推定し,推定したコンテキストをもとにタスク教材データから要求にかかる生活タスクのステップを特定する提示対象特定手段と,3)特定されたステップに対応する教師映像データを,前記タスク教材データベースから抽出する映像検索手段と,4)前記抽出された教師映像データを出力する映像提示手段とを備える。   The living task support system of the present invention includes 1) task teaching material data in which the contents and procedure of a living task composed of a plurality of steps are described, and a teacher who records a model operation in each step of the living task. Task teaching material database that stores video data, and 2) When a user requests video presentation, identify the daily tasks required for the request based on the distributed environment behavior database, and meet the requirements in the identified daily tasks A presentation target specifying means for estimating a context representing an action or a state, and identifying a step of a living task according to a request from task teaching material data based on the estimated context; and 3) teaching video data corresponding to the identified step. , Video search means for extracting from the task teaching material database, and 4) the extracted teacher video data Outputs a and a video presentation unit.

本発明は,ユーザから映像提示要求があった場合に,提示対象特定手段によって,分散環境行動データベースをもとに,要求された生活タスクを特定し,特定した生活タスクにおいて要求に合致する動作または状態を表すコンテキストを推定し,このコンテキストをもとにタスク教材データから当該要求にかかる生活タスクの手順を特定する。そして,映像検索手段によって,特定した手順に対応する教師映像データを,タスク教材データベースから抽出し,映像提示手段によって,抽出された教師映像データを出力する。   In the present invention, when there is a video presentation request from the user, the requested living task is specified based on the distributed environment behavior database by the presentation target specifying means, and the action or The context representing the state is estimated, and the procedure of the life task related to the request is specified from the task teaching material data based on this context. Then, the teacher video data corresponding to the identified procedure is extracted from the task teaching material database by the video search means, and the extracted teacher video data is output by the video presentation means.

これによって,ユーザは,生活タスクを終了した後に手順を確認したい場合に,教材データの提示要求によって,該当する教師映像データを見ることができる。   As a result, when the user wants to check the procedure after completing the life task, the user can view the corresponding teacher video data in response to the teaching material data presentation request.

また,本発明は,生活タスクを実行中のユーザの動作を記録したユーザ映像データを記憶するユーザ映像データベースと,ユーザ映像データベースに,前記ユーザ映像データを蓄積するユーザ映像蓄積処理手段とを備えて,映像検索手段によって,ユーザ映像データベースから要求にかかるステップを実行したユーザ映像データを検索し,映像提示手段によって,検索された教師映像データおよびユーザ映像データを出力する。   In addition, the present invention includes a user video database that stores user video data that records the actions of a user who is performing a life task, and user video storage processing means that stores the user video data in the user video database. Then, the video search means searches the user video data from the user video database for the requested step, and the video presentation means outputs the searched teacher video data and user video data.

本発明によれば,複数のステップが順次行われて終了するような生活タスクについて,各ステップにおけるタスクの内容や動作などが記述されたタスク教材データ,手本となる動作を記録する映像データなどを蓄積しておき,センサ情報,ユーザの発話から,作業中のユーザの取り巻くコンテキストを抽出し,このコンテキストをもとに,ユーザが実行するべきステップ,各ステップで実行するべきタスクの内容,次のステップへのガイダンスなどをユーザに提示することができる。   According to the present invention, with respect to a life task that is completed after a plurality of steps are sequentially performed, task teaching material data describing task contents and operations in each step, video data recording a model operation, etc. From the sensor information and user's utterances, and the context surrounding the user who is working is extracted. Based on this context, the steps to be executed by the user, the contents of the tasks to be executed at each step, the following The user can be presented with guidance to the steps.

これにより,タスク実行中のユーザが,必要なステップを抜かしたり,ステップでのタスク内容を間違ったりすることを防止して,生活タスクを失敗なく完了できるように支援することができる。   As a result, it is possible to prevent a user who is executing a task from skipping a necessary step or making a mistake in the task contents at the step, and assisting the user to complete the life task without failure.

また,本発明によれば,生活タスクの各ステップでの動作手本となる映像情報と,ユーザが実際に実行したタスクの映像情報とを共に提示することができる。これにより,ユーザから問い合わせられたステップやタスク内容について,手本となる映像と自分の映像とを比較できるように表示することができる。これにより,ユーザは,手本となる動作と自分の動作とを比較して,失敗の箇所やその原因などを確認することができ,同じ生活タスクを再度実行するときに,より良く実行できるように支援することができる。   Further, according to the present invention, it is possible to present both video information as an example of operation at each step of a daily task and video information of a task actually executed by a user. As a result, it is possible to display the step and task contents inquired by the user so that the model video and the user's own video can be compared. As a result, the user can compare the model action with his or her own action to confirm the location of the failure and the cause of the failure. Can help.

本発明は,生活タスクの支援対象とするが,狭義の生活において行われるタスクに限らず,前述のように複数のステップが順次行われて完了する作業であればどのような分野のタスクをも支援対象とすることができる。本発明によれば,例えば,一人の作業者が複数の工程を通して行うことによって所定の組み立て作業を完成させる「屋台方式」と呼ばれるような作業タスクを支援することができる。そのため,作業者個々人に対応させて,作業の内容の説明を行うことができるため,作業の効率や精度の向上を図ることが期待できる。   Although the present invention is an object of support for daily tasks, it is not limited to tasks performed in a narrow sense of life, and tasks in any field can be applied as long as a plurality of steps are sequentially performed as described above. Can be supported. According to the present invention, for example, it is possible to support a work task called “a stand system” in which a single worker completes a predetermined assembly work through a plurality of processes. For this reason, it is possible to explain the contents of the work in correspondence with each worker, and it is expected to improve the efficiency and accuracy of the work.

以下に,本発明を実施するための最良の形態として,ユーザが,生活タスクとして「調理タスク」を行う場合を例に説明する。   Hereinafter, as a best mode for carrying out the present invention, a case where a user performs a “cooking task” as a living task will be described as an example.

図1は,本発明の生活タスク支援システムの構成例を示す図である。   FIG. 1 is a diagram showing a configuration example of a life task support system of the present invention.

生活タスク支援システム1は,分散環境行動データベース11,タスクモデルデータベース12,タスク教材データベース13,ユーザ映像データベース15,センサ情報収集部21,タスクモデル取得部22,タスク進行制御部23,インタラクション制御部24,音声出力部25,映像提示部26,映像検索部27,および状態遷移モデル記憶部28を備える。   The living task support system 1 includes a distributed environment behavior database 11, a task model database 12, a task teaching material database 13, a user video database 15, a sensor information collection unit 21, a task model acquisition unit 22, a task progress control unit 23, and an interaction control unit 24. , An audio output unit 25, a video presentation unit 26, a video search unit 27, and a state transition model storage unit 28.

分散環境行動データベース11は,種々のセンサによって検出された,ユーザ,ユーザの周囲に存在する物,ユーザを取り巻く環境(空間の状態)などの情報をもとに検出したイベント情報/状態情報,イベント情報/状態情報から推論されたコンテキストなどを階層的に管理・蓄積するデータベースである。分散環境行動データベース11は,いわゆる生活空間における「人・モノ・環境」の情報を管理・蓄積・検索利用できるプラットフォームである。分散環境行動データベース11は,前記特許文献1(WO2005/086051A1)に記載された技術を用いて実現する。   The distributed environment behavior database 11 detects event information / state information, events detected based on information detected by various sensors, such as the user, objects existing around the user, and the environment (space state) surrounding the user. It is a database that hierarchically manages and accumulates contexts inferred from information / state information. The distributed environment behavior database 11 is a platform that can manage, store, and use information of “people / things / environments” in a so-called living space. The distributed environment behavior database 11 is realized by using the technique described in Patent Document 1 (WO2005 / 086051A1).

図2および図3に,分散環境行動データベース11の構成例を示す。分散環境行動データベース11は,センサ情報データベース(DB)層111,イベント/状態管理データベース(DB)層113,コンテキストデータベース(DB)層115,およびドメイン/タスク知識データベース(DB)層117の4つの管理層から構成される。   2 and 3 show examples of the configuration of the distributed environment behavior database 11. The distributed environment behavior database 11 includes four managements: a sensor information database (DB) layer 111, an event / state management database (DB) layer 113, a context database (DB) layer 115, and a domain / task knowledge database (DB) layer 117. Composed of layers.

図3に示すように,センサ情報データベース層111は,ユーザが生活タスクを行う生活空間に配置されたセンサ(センシング装置)を介して収集されたセンサ情報を蓄積・管理するデータ管理手段である。   As shown in FIG. 3, the sensor information database layer 111 is data management means for accumulating and managing sensor information collected via sensors (sensing devices) arranged in a living space where a user performs a living task.

ユーザの生活空間には,RFIDタグセンサ,無線LAN測位システム,床センサ,焦電センサ,カメラ,マイク,睡眠センサ,家電機器状態センサ,ロボットセンサ(対話ロボットなどに搭載されたセンサ)などの多様なセンサが分散配置される。センサで収集された各センサ情報は,タイムスタンプ,データタイプ,データサイズをヘッダとした構造体のバイナリデータとして,センシング種別ごとに分散して蓄積される。   There are various user living spaces such as RFID tag sensors, wireless LAN positioning systems, floor sensors, pyroelectric sensors, cameras, microphones, sleep sensors, home appliance status sensors, robot sensors (sensors installed in interactive robots, etc.) Sensors are distributed. Each sensor information collected by the sensors is distributed and stored for each sensing type as binary data of a structure having a time stamp, data type, and data size as a header.

イベント/状態管理データベース層113は,センサ情報データベース層111のセンサ情報をもとに,生活空間内で生じたイベントや状態を検出し,その検出結果(イベント情報,状態情報)を蓄積・管理するデータ管理手段である。イベントや状態の検出処理として,具体的には,位置検出処理,人物同定処理,動き検出処理,音声認識処理,その他の処理が行われる。これらの処理結果は,時間情報,人・モノ・環境のID情報(同定情報),位置情報を主キーとし,イベントや状態の内容と確信度とを単位とした形式のデータとして蓄積される。   The event / state management database layer 113 detects events and states that occur in the living space based on the sensor information in the sensor information database layer 111, and accumulates and manages the detection results (event information and state information). Data management means. As the event and state detection processing, specifically, position detection processing, person identification processing, motion detection processing, speech recognition processing, and other processing are performed. These processing results are stored as data in a format in which time information, person / thing / environment ID information (identification information), and position information are the main keys, and the contents of events and states and the certainty factor.

コンテキストデータベース層115は,イベント/状態管理データベース層113の情報をもとに,ユーザの動作や取り巻く状態を表すコンテキストを推論し,このコンテキストデータを蓄積・管理するデータ管理手段である。コンテキストデータベース層115には,主格(人・モノ・環境などのコンテキストの主題を示す),動作格(主格の動作を示す),対象格(動作の対象を示す),場所格(動作の行われた場所を示す),確信度(推定されたコンテキストである確信の度合い)などの情報が,XML(eXtensible Markup Language)形式で記述されたコンテキストデータが蓄積される。   The context database layer 115 is data management means for inferring a context representing a user's action and surrounding state based on information in the event / state management database layer 113, and storing and managing this context data. The context database layer 115 includes a main case (indicating the subject of the context such as a person, an object, and an environment), an action case (indicating the action of the main case), a target case (indicating the object of the action), and a place case (in which the action is performed). Context data described in XML (eXtensible Markup Language) format such as information such as confidence level (degree of confidence that is an estimated context) and the like are stored.

図4は,コンテキストデータベース層115に蓄積されるコンテキストデータの例である。図4に示すコンテキストデータは,「指定されたIDのユーザ(主格)が,記述された時間帯に,サラダ油(対象格)を指定された位置から(場所格)0.85の確信度で取り出した(動作格)」を表している。   FIG. 4 is an example of context data stored in the context database layer 115. The context data shown in FIG. 4 indicates that the user with the specified ID (primary case) extracts the salad oil (target case) from the specified position (location case) with a certainty factor of 0.85 during the described time zone. (Operation case) ".

ドメイン/タスク知識データベース層117は,ドメイン知識情報やタスク知識情報を蓄積・管理するデータ管理手段である。ドメイン/タスク知識データベース層117には,ユーザが実行する生活タスクの語彙などのサービスドメインを規定するドメイン知識データ,生活タスクでの動作,使用する器具やその実行場所での対応などの流用可能な暗黙的なタスク内容を規定するタスク知識データなどが,XMLまたはRDF(Resource Description Framework)形式で蓄積される。   The domain / task knowledge database layer 117 is data management means for accumulating and managing domain knowledge information and task knowledge information. In the domain / task knowledge database layer 117, domain knowledge data that defines service domains such as vocabulary of life tasks executed by the user, operations in life tasks, appliances to be used, correspondence in the execution place, etc. can be diverted. Task knowledge data that defines implicit task content is stored in XML or RDF (Resource Description Framework) format.

図5に,ドメイン/タスク知識DB層117のドメイン/タスク知識データ例を示す。図5(A)は,調理に関する暗黙知識を示すタスク知識データの例である。ここでは,「煮る(Boil)という調理動作は,なべ(Pan)が必要で,レンジ(Range)で実行する」という内容を,調理器具と器具・場所などとの関係を示したRDF記述によって規定している。図5(B)は,主な調理動作の記述例を示す図である。「煮る(Boil)」以外に,「火を消す(closeFire),水を止める(closeWater),…」などが規定されている。   FIG. 5 shows an example of domain / task knowledge data in the domain / task knowledge DB layer 117. FIG. 5A is an example of task knowledge data indicating tacit knowledge about cooking. Here, the content that “the cooking operation of Boil requires a pan and is executed in the range” is defined by the RDF description that shows the relationship between the cooking utensil and the utensil / place, etc. is doing. FIG. 5B is a diagram illustrating a description example of main cooking operations. In addition to “Boil”, “Fire extinguishing (closeFire), stopping water (closeWater), etc.” are defined.

タスクモデルデータベース12は,タスクモデルが蓄積されたデータ蓄積手段である。タスクモデルは,生活タスクの内容および手順を複数のステップによる構造として記述したデータである。   The task model database 12 is data storage means in which task models are stored. The task model is data that describes the contents and procedure of a daily task as a structure with a plurality of steps.

タスク教材データベース13は,タスク教材データが蓄積されたデータ蓄積手段である。タスク教材データは,生活タスクの内容および手順を人間が理解可能な形式で自然言語によって記述したデータである。本例で,タスク教材データは,調理レシピデータである。また,タスク教材データベース13は,生活タスクの各手順(ステップ)において手本となる動作を記録した教師映像データを蓄積する。   The task teaching material database 13 is a data storage unit that stores task teaching material data. Task teaching material data is data in which the contents and procedures of daily life tasks are described in a natural language in a form that can be understood by humans. In this example, the task teaching material data is cooking recipe data. In addition, the task teaching material database 13 accumulates teacher video data in which actions that serve as examples in each procedure (step) of the life task are recorded.

本例では,タスク教材データベース13に,調理レシピデータおよび教師映像データが蓄積されている。   In this example, cooking recipe data and teacher video data are accumulated in the task teaching material database 13.

図6に,調理レシピデータの例を示す。図6の調理レシピデータは,「牛肉ときのこのオイスターソース炒め」の調理タスクに必要な食材と,実行される調理動作とをステップごとに時系列的に記述した情報である。ここでは,以下のように,より詳細な作業の内容を示す複数のステップに分けて記述されている。
「S1.片栗粉大さじ1/2を水大さじ1/2で溶く,
S2.牛もも肉250gは繊維に沿って細切りにする,
S3.酒大さじ1,しょう油大さじ2,水溶きかたくり粉(同量の水で溶いたもの),サラダ油大さじ1を順に牛もも肉に加えてもみ込む,
S4.牛もも肉を約20分おく,
S5.まいたけ1パックとしめじ1パックの石づきを取る,…」。
FIG. 6 shows an example of cooking recipe data. The cooking recipe data in FIG. 6 is information in which the ingredients necessary for the cooking task of “Fry this oyster sauce when beef” and the cooking operation to be executed are described in time series. Here, it is divided into a plurality of steps indicating the details of the work as follows.
“S1. Dissolve 1/2 tablespoon of starch starch in 1/2 tablespoon of water.
S2. 250g of beef thigh is chopped along the fiber.
S3. Add 1 tablespoon of sake, 1 tablespoon of soy sauce, 2 tablespoons of water-soluble cauldron (dissolved in the same amount of water), and 1 tablespoon of salad oil to the beef thigh.
S4. Place the beef leg for about 20 minutes,
S5. Take a stone of 1 pack of maitake and 1 pack of shimeji… ”.

教師映像データは,各ステップで実行される調理動作の手本となる動作の映像データである。   The teacher video data is video data of an operation that serves as an example of a cooking operation executed in each step.

生活タスクの内容は,通常,いくつかのより細かいステップに分けることができる。タスク教材データは,いくつかのステップに分割され,ステップごとに内容が記述されているが,タスクモデルデータベース12に蓄積されているタスクモデルは,タスク教材データのステップ各々を,より細かなステップ(サブステップ)に分けて記述している。   The contents of life tasks can usually be divided into a number of smaller steps. The task teaching material data is divided into several steps, and the contents are described for each step. However, the task model stored in the task model database 12 divides each step of the task teaching material data into finer steps ( It is divided into sub-steps).

後述するように,タスクモデル取得部22は,支援対象となる生活タスクのタスクモデルがタスクモデルデータベース12に蓄積されていれば,蓄積されたタスクモデルを用いてタスク進行制御のための状態遷移モデルを生成する。また,支援対象となる生活タスクのタスクモデルがなければ,タスク教材データからタスクモデルを生成する。したがって,生活タスク支援システム1は,タスクモデルデータベース12とタスク教材データベース13のいずれか一方を備えていればよい。   As will be described later, if the task model of the life task to be supported is accumulated in the task model database 12, the task model acquisition unit 22 uses the accumulated task model to change the state transition model for task progress control. Is generated. In addition, if there is no task model of the life task to be supported, a task model is generated from the task teaching material data. Therefore, the living task support system 1 only needs to include either the task model database 12 or the task teaching material database 13.

ユーザ映像データベース15は,調理タスクを実行中のユーザの調理動作を撮影したユーザ映像情報を蓄積するデータ蓄積手段である。ユーザ映像情報は,センサの一つとして,キッチンの作業台の上に設置された固定カメラで撮影され,センサ情報収集部21を介してユーザ映像データベース15に蓄積される。   The user video database 15 is data storage means for storing user video information obtained by photographing a cooking operation of a user who is executing a cooking task. The user video information is photographed by a fixed camera installed on a kitchen work table as one of the sensors, and stored in the user video database 15 via the sensor information collection unit 21.

センサ情報収集部21は,ユーザの生活空間に分配設置されたセンサが検出したセンサ情報を収集し,分散環境行動データベース11へ格納する処理手段である。ユーザの生活空間の中で調理タスクが行われるキッチンには,ユーザの位置および移動を検出する床センサ,食器棚,食品棚などの扉の開閉を検出するリードスイッチ,タスクで使用されるRFIDタグ付きのオブジェクト(調理用器具,食品保存容器,食器など)の位置を検出するRFIDリーダ,冷蔵庫などのアプライアンスの動作状態を検出するセンシング機能,ユーザが発話した音声データを収集するマイク,作業台の天板を撮影するカメラなどが設置される。   The sensor information collection unit 21 is a processing unit that collects sensor information detected by the sensors distributed and installed in the user's living space and stores it in the distributed environment behavior database 11. In kitchens where cooking tasks are performed in the user's living space, floor sensors that detect the user's position and movement, reed switches that detect the opening and closing of doors such as cupboards and food shelves, and RFID tags used in the task RFID reader that detects the position of attached objects (cooking utensils, food storage containers, tableware, etc.), a sensing function that detects the operating state of appliances such as refrigerators, a microphone that collects voice data spoken by the user, A camera to shoot the top board will be installed.

タスクモデル取得部22は,タスクモデル取得処理,タスクモデル記述処理,状態遷移モデル生成処理などを行う処理手段である。   The task model acquisition unit 22 is a processing unit that performs task model acquisition processing, task model description processing, state transition model generation processing, and the like.

タスクモデル取得部22は,タスクモデル取得処理として,タスクモデルデータベース12から,ユーザによって選択された生活タスクのタスクモデルを抽出する。   The task model acquisition unit 22 extracts a task model of a life task selected by the user from the task model database 12 as a task model acquisition process.

また,タスクモデル記述処理として,タスク教材データベース13からユーザが選択した調理タスクの調理レシピデータを抽出し,調理レシピデータの各ステップを,より詳細な調理動作に分けたサブステップに変換してタスクモデルを記述する。ここで,あるステップ内で生成されたサブステップのいくつかは,配列的に行われる動作や状態を記述するものであってもよい。   Also, as task model description processing, cooking recipe data of the cooking task selected by the user is extracted from the task teaching material database 13, and each step of the cooking recipe data is converted into substeps divided into more detailed cooking operations. Describe the model. Here, some of the sub-steps generated in a certain step may describe operations and states performed in an array.

また,状態遷移モデル生成処理として,タスクモデルをもとに,センサ情報として検出可能なユーザの動作および状態に対応して構成された状態遷移モデルを生成し状態遷移モデル記憶部28に保存する。   Further, as the state transition model generation process, a state transition model configured corresponding to the user's operation and state that can be detected as sensor information is generated based on the task model and stored in the state transition model storage unit 28.

ここで生成される状態遷移モデルは,分散環境行動データベース11に蓄積されている,調理タスクで使用される調理器具,食器,食材など(オブジェクト)の状態データ(イベント/状態管理データベース層113),調理タスクに関連するタスク知識データをもとに,センサ情報として検出可能なユーザの動作および状態を要素として構成される。   The state transition model generated here is state data (event / state management database layer 113) of cooking utensils, tableware, ingredients, etc. (objects) used in cooking tasks, stored in the distributed environment behavior database 11. Based on task knowledge data related to cooking tasks, it is configured with user actions and states that can be detected as sensor information as elements.

タスク進行制御部23は,タスク教材データを参照して,センサ情報によって獲得したユーザの生活タスクの動作に応じたリアルタイムの支援処理を実行するために,センサイベント検出処理,コンテキスト抽出処理,提示対象特定処理などを行って,支援する生活タスクの進行を制御する処理手段である。タスク進行制御部23は,タスクモデル取得部22,インタラクション制御部24,映像検索部27などを制御する。   The task progress control unit 23 refers to the task learning data, and performs sensor event detection processing, context extraction processing, and presentation target in order to execute real-time support processing according to the user's life task operation acquired by the sensor information. This is a processing means for controlling the progress of the life task to be supported by performing specific processing. The task progress control unit 23 controls the task model acquisition unit 22, the interaction control unit 24, the video search unit 27, and the like.

タスク進行制御部23は,センサイベント検出処理として,センサ情報から生成されたユーザの動作/状態情報やインタラクション制御部24から得たユーザの応答内容を取得する。さらに,コンテキスト抽出処理として,これらのセンサ情報または応答内容をもとに調理タスクにおけるユーザの動作または状態を表すコンテキストを推定し,このコンテキストデータに合致する調理タスクのサブステップを状態遷移モデルから特定する。   The task progress control unit 23 acquires the user action / state information generated from the sensor information and the user response content obtained from the interaction control unit 24 as sensor event detection processing. Furthermore, as context extraction processing, a context representing the user's action or state in the cooking task is estimated based on the sensor information or response content, and the substep of the cooking task that matches this context data is identified from the state transition model. To do.

また,タスク進行制御部23は,提示対象特定処理として,ユーザから教師映像データの提示が要求された場合に,要求された生活タスクにおいて,要求の内容に合致する動作または状態を表すコンテキストを推定し,このコンテキストデータをもとにタスク教材データの該当するステップを特定する。   Further, the task progress control unit 23 estimates a context representing an operation or a state that matches the requested content in the requested life task when the presentation of the teacher video data is requested by the user as the presentation target specifying process. Then, the corresponding step of the task teaching material data is specified based on the context data.

インタラクション制御部24は,ユーザとのインタフェースとして,ユーザとの対話処理,タスク教材データベース13に蓄積された調理レシピデータの内容の表示処理,ユーザ映像データと教師映像データとの比較表示処理などを制御する処理手段である。   The interaction control unit 24 controls, as an interface with the user, dialogue processing with the user, display processing of the contents of the cooking recipe data stored in the task teaching material database 13, comparison display processing between the user video data and the teacher video data, and the like. Processing means.

インタラクション制御部24は,ユーザとの対話処理のための処理手段として,ユーザとの対話を生成するための言語情報を蓄積する対話用辞書データベース,タスク進行制御部23によって抽出されたコンテキストをもとにユーザに対する問いかけを生成する問いかけ生成部,生成された問いかけを音声データに変換して発話する音声合成部,ユーザが発話した音声データの内容を認識する音声認識部などを備える。   The interaction control unit 24 is a dialogue dictionary database that accumulates language information for generating a dialogue with the user and a context extracted by the task progress control unit 23 as a processing means for dialogue processing with the user. A question generating unit for generating a question to the user, a voice synthesizing unit for converting the generated question into voice data, and a voice recognition unit for recognizing the contents of the voice data spoken by the user.

インタラクション制御部24は,ユーザとの対話処理として,タスク進行制御部23によって特定された調理レシピデータのステップで実行される調理内容や調理動作の案内,次のステップへの導入案内,調理動作終了の確認などの問いかけを音声データに変換して出力する。また,問いかけに対するユーザの発話を入力し,音声認識し,その応答内容を解析して,タスク進行制御部23へ渡す。   As an interactive process with the user, the interaction control unit 24 guides cooking contents and cooking operations performed in the steps of the cooking recipe data specified by the task progress control unit 23, introduction guidance to the next step, and completion of the cooking operation. Converts questions such as confirmation to voice data and outputs it. Also, the user's utterance to the question is input, voice recognition is performed, the response content is analyzed, and the task progress control unit 23 is passed.

また,インタラクション制御部24は,調理レシピデータの内容の表示処理として,タスク進行制御部23によって特定された調理タスクのサブステップに関連する調理レシピの内容を音声データに変換して出力する。   Moreover, the interaction control part 24 converts the content of the cooking recipe relevant to the substep of the cooking task specified by the task progress control part 23 into voice data, and outputs it as display processing of the content of cooking recipe data.

また,インタラクション制御部24は,映像データの比較表示処理として,ユーザから映像の提示要求があった場合に,映像検索部27によって抽出されたユーザ映像データと教師映像データとの該当部分を並べてディスプレイに表示する。   Further, the interaction control unit 24 arranges and displays the corresponding portions of the user video data and the teacher video data extracted by the video search unit 27 when there is a video presentation request from the user as a video data comparison display process. To display.

音声出力部25は,インタラクション制御部24で生成された音声データを出力する処理手段である。映像提示部26は,調理レシピの内容,映像データをディスプレイに表示する処理手段である。   The audio output unit 25 is a processing unit that outputs the audio data generated by the interaction control unit 24. The video presentation unit 26 is processing means for displaying the contents of cooking recipes and video data on a display.

図7に,ディスプレイの表示例を示す。図7(A)は,調理タスクの支援を実行中の表示である。ディスプレイ画面200には,調理タスクのステップに対応する調理タスクの内容表示201と,手本となる調理動作の教師映像データ表示203などが表示される。図7(B)は,検索要求に対する映像表示例である。ディスプレイ画面200には,ユーザ自身の調理動作であるユーザ映像データ表示205と,該当するステップや動作についての教師映像データ表示207とが並んで表示される。   FIG. 7 shows a display example of the display. FIG. 7A shows a display during support for cooking tasks. The display screen 200 displays a cooking task content display 201 corresponding to a cooking task step, a teacher video data display 203 of a cooking operation as a model, and the like. FIG. 7B is a video display example in response to a search request. On the display screen 200, a user video data display 205, which is the user's own cooking operation, and a teacher video data display 207 for the corresponding steps and operations are displayed side by side.

映像検索部27は,ユーザから映像提示要求があった場合に,タスク教材データベース13またはユーザ映像データベース15を検索して,要求された箇所または動作に関連する映像データを取得する処理手段である。   The video search unit 27 is a processing unit that searches the task teaching material database 13 or the user video database 15 and acquires video data related to the requested location or operation when a video presentation request is received from the user.

以下に,生活タスク支援システム1による調理タスクの支援処理を,より詳細に説明する。   Hereinafter, the cooking task support processing by the life task support system 1 will be described in more detail.

(1)センサイベントの検出
センサ情報収集部21によって収集されたセンサ情報は,分散環境行動データベース11のセンサ情報データベース層111へ蓄積される。分散環境行動データベース11では,センサ情報が蓄積されると,センサイベントが検出される。そして,センサ情報から,人物同定,動き,会話内容(会話テキスト)などが検出・認識される。その処理結果として,ユーザの動作(イベント情報)やキッチンの状態(状態情報)などが推定され,イベント/状態管理データベース層113に蓄積される。さらに,収集されたイベント情報や状態情報は,統合的に推論され,コンテキストが推定される。コンテキストデータは,コンテキストデータベース層115に蓄積される。
(1) Detection of Sensor Event The sensor information collected by the sensor information collection unit 21 is accumulated in the sensor information database layer 111 of the distributed environment behavior database 11. In the distributed environment behavior database 11, when sensor information is accumulated, a sensor event is detected. Then, person identification, movement, conversation content (conversation text), etc. are detected and recognized from the sensor information. As the processing results, user actions (event information), kitchen status (status information), and the like are estimated and stored in the event / status management database layer 113. Furthermore, the collected event information and state information are inferred in an integrated manner, and the context is estimated. The context data is stored in the context database layer 115.

また,センサイベントは,タスク進行制御部23へ通知される。   Further, the sensor event is notified to the task progress control unit 23.

(2)調理タスクのモデル化
調理タスクの支援では,ユーザの調理の進行に合わせて調理レシピデータを適切に提示する必要がある。ユーザの調理の進行状況を管理するため,センサイベントで特定できるユーザの動作や状態が,調理タスクのどのサブステップに該当するのかを判定するために,調理タスクをモデル化して状態を定義する。
(2) Cooking Task Modeling In order to support cooking tasks, it is necessary to present cooking recipe data appropriately as the user progresses cooking. In order to manage the user's cooking progress, the cooking task is modeled and the state is defined in order to determine which substep of the cooking task corresponds to the user's action or state that can be specified by the sensor event.

ユーザが,「牛肉ときのこのオイスターソース炒め」の調理タスクについての支援サービスを要求すると,タスクモデル取得部22は,タスク教材データベース13から,「牛肉ときのこのオイスターソース炒め」の調理レシピデータを取得する。   When the user requests a support service for the cooking task of “Fry this oyster sauce when beef”, the task model acquisition unit 22 retrieves the cooking recipe data of “Fry this oyster sauce when beef” from the task teaching material database 13. get.

そして,「牛肉ときのこのオイスターソース炒め」の調理レシピデータに時系列的に記述された各ステップを,より詳細なサブステップへ分割して調理タスクモデルへ変換する。   Then, each step described in the cooking recipe data of “Stir-fried beef with oyster sauce” is divided into more detailed sub-steps and converted into a cooking task model.

具体的には,図8に示すように,分散環境行動データベース11のドメイン/タスク知識データベース層117に蓄積されているタスク知識データ,イベント/状態管理データベース層113に蓄積されているイベント/状態情報などを参照して,調理レシピデータの各ステップを,調理タスクモデルに変換する。   Specifically, as shown in FIG. 8, task knowledge data stored in the domain / task knowledge database layer 117 of the distributed environment behavior database 11, event / state information stored in the event / state management database layer 113. Each step of cooking recipe data is converted into a cooking task model with reference to the above.

例えば,暗黙なタスク知識データ「AをBで溶くには,容器が必要である。溶く動作は,通常,作業台で行う。…」が蓄積され,また,状態データ「容器は,ボウルobject1,ボウルobject2は,キッチンの左上の食器棚に存在する。…」が蓄積されている場合に,調理レシピデータのステップS1「1.片栗粉大さじ1/2を水大さじ1/2で溶く」は,以下の6つのサブステップに分割される。
「SubS1:ボウルを作業台に置く,
SubS2:片栗粉を作業台に置く,
SubS3:計量スプーンを作業台に置く,
(SubS1〜3は順序不同),
SubS4:計量スプーンでボウルに片栗粉を入れる,
SubS5:計量スプーンでボウルに水を入れる,
SubS6:片栗粉をかき混ぜる」。
For example, implicit task knowledge data "A container is required to melt A with B. Melting operation is normally performed on a workbench ..." and status data "container is bowl object1, The bowl object2 exists in the upper left cupboard of the kitchen .... "is accumulated, step S1" 1. Melt 1/2 tablespoon of starch starch with 1/2 tablespoon of water "in the cooking recipe data is as follows. Are divided into six sub-steps.
“SubS1: Place the bowl on the workbench,
SubS2: Place starch on the workbench,
SubS3: Place the measuring spoon on the workbench,
(SubS1 to 3 are in no particular order),
SubS4: Put potato starch into the bowl with a measuring spoon.
SubS5: Put water into the bowl with a measuring spoon,
SubS6: Stir the starch. "

タスクモデル取得部22は,さらに,センサイベントによって獲得できるユーザのイベント情報/状態情報を用いて調理タスクの進行制御が行えるように,調理タスクモデルから,センサイベントによって認識可能なユーザのイベント(動作)や周囲の状態を要素として抜粋して,状態遷移モデルを生成し,状態遷移モデル記憶部28へ保存する。例えば,上記のステップS1「片栗粉を水で溶く」の場合に,センサイベントで認識可能なユーザの動作または状態は,「ボウルが作業台に現れる」,「片栗粉の容器が作業台に現れる」,「計量スプーンが作業台に現れる」の3つがある。従って,上記のステップの状態遷移モデルでは,これらの動作または状態が要素に含まれる。   The task model acquisition unit 22 further recognizes user events (operations) that can be recognized by sensor events from the cooking task model so that cooking task progress control can be performed using user event information / status information that can be acquired by sensor events. ) And surrounding states are extracted as elements, a state transition model is generated, and stored in the state transition model storage unit 28. For example, in the case of the above step S1 “dissolve starch with water”, the user's action or state that can be recognized by the sensor event is “the bowl appears on the workbench”, “the starch powder container appears on the workbench”, There are three: “Measuring spoon appears on the workbench”. Therefore, in the state transition model of the above step, these operations or states are included in the elements.

(3)コンテキストの獲得
タスク進行制御部23は,調理タスクを実行中のユーザの動作や周囲の状態に合致するサブステップを特定するために,センサイベントによって生成されたイベント/状態情報をもとに,コンテキストを獲得する。
(3) Acquisition of context The task progress control unit 23 uses the event / state information generated by the sensor event to identify substeps that match the action of the user who is executing the cooking task and the surrounding state. Acquire the context.

本例において,センサイベントでは,調理中のユーザの動作や状況を知るためのセンサ情報が,図9に示すようなセンサを介して収集される。   In this example, in the sensor event, sensor information for knowing the operation and situation of the user during cooking is collected via a sensor as shown in FIG.

・カメラ:図9に示すように,キッチンの作業台上およびIHクッキングヒータ上にそれぞれ2台ずつカメラを設置し,各撮影区域内の調理タスクに関係するオブジェクト(ボウル,まな板,フライパンなどの調理器具,食器,食材用容器など)の出現/消失を検出する。オブジェクトの位置検出には,例えばARToolKit(http://www.hitl.washington.edu/artoolkitを参照)を使用する。ARToolKitに準拠したマーカを予めオブジェクトに貼付しておく。マーカが貼付されたオブジェクトについては,撮影された画像中からマーカを検出することによって,オブジェクトの位置情報を検出することが可能である。   ・ Cameras: As shown in FIG. 9, two cameras are installed on the kitchen workbench and on the IH cooking heater, respectively, and objects related to cooking tasks (bowl, cutting board, frying pan, etc.) in each shooting area. , Tableware, food containers, etc.). For example, ARTToolKit (see http://www.hitl.washington.edu/artoolkit) is used to detect the position of the object. A marker compliant with ARTToolKit is pasted on the object in advance. For an object with a marker attached, it is possible to detect the position information of the object by detecting the marker from the captured image.

また,予めボウルの内底部にマーカを貼付しておき,ボウル内が空の状態では,マーカが撮影され,また,ボウル内に食材が入っている状態では,入れられた食材でマーカが隠れて撮影されないことを利用して,オブジェクトの状態情報を検出することが可能である。   In addition, a marker is affixed to the inner bottom of the bowl in advance, and when the bowl is empty, the marker is photographed, and when the bowl is filled with ingredients, the marker is hidden by the placed ingredients. It is possible to detect the state information of the object by utilizing that the image is not taken.

さらに,カメラによって撮影された作業台やIHクッキングヒータ上のユーザの手元の映像は,ユーザ映像データとしてユーザ映像データベース15に蓄積される。   Furthermore, the video of the user's hand on the work table or the IH cooking heater taken by the camera is stored in the user video database 15 as user video data.

・リードスイッチ:包丁を収納する包丁ホルダにリードスイッチを設置し,包丁にマグネットを取り付けておく。これによって,「包丁ホルダから包丁が取り出された」というイベントを検出することができる。また,食器棚や食品収納庫の扉にリードスイッチを設置し,扉の開閉を検出することによって,「オブジェクトへのアクセスがあった」ことを検出することができる。   -Reed switch: Install a reed switch on the knife holder that holds the knife, and attach a magnet to the knife. As a result, it is possible to detect an event that “the knife has been removed from the knife holder”. In addition, by installing a reed switch on the door of a cupboard or food storage and detecting the opening / closing of the door, it is possible to detect “the object has been accessed”.

・振動センサ:キッチンの作業台に振動センサを設置し,「作業台上にオブジェクトが置かれた」「モノ(食材)を切る」,「モノ(食材)を叩いてつぶす」などの調理動作を検出することができる。   ・ Vibration sensor: A vibration sensor is installed on the workbench in the kitchen to perform cooking operations such as “An object is placed on the workbench”, “Turn off an object (foodstuff)”, and “Crush the object (foodstuff).” Can be detected.

実際のセンシング環境では,ユーザの動作やキッチンの状態の認識処理の精度が低くなったり,時には,動作や状態の変化が全く認識できなかったりする。そのため,ユーザの意志を明示的に入力してもらうようにしてもよい。例えば,インタラクション制御部24との協働によって,調理タスクの進行上確認したいユーザの動作や周囲の状態について確認する旨の問いかけを発話し,ユーザの応答によって動作やキッチンの状態を獲得する。   In the actual sensing environment, the accuracy of the recognition process of the user's action and the state of the kitchen is low, and sometimes the change of the action and the state cannot be recognized at all. Therefore, the user's will may be explicitly input. For example, by cooperating with the interaction control unit 24, the user asks for confirmation of the user's operation and the surrounding state to be confirmed in the progress of the cooking task, and acquires the operation and kitchen state by the user's response.

または,キッチンに確認ボタンなどを設置し,ユーザが調理動作の終了時にボタンを押下するように決めておき,ボタン押下を検出して,ユーザ動作やキッチンの状態などを認識するようにしてもよい。   Alternatively, a confirmation button or the like may be installed in the kitchen, and the user may decide to press the button at the end of the cooking operation and detect the button press to recognize the user operation or the state of the kitchen. .

このようなセンサイベントを,調理タスクモデルから生成された状態遷移モデルに対応付けることによって,ユーザが,「いつ,どのオブジェクトに対して,どのような動作をしたか」というコンテキストを獲得することができる。   By associating such sensor events with the state transition model generated from the cooking task model, the user can acquire the context of “when and what object, what operation was performed”. .

図10に示すように,ユーザが調理タスクを実行している間,センサ群によって検出された,調理器具の位置,ユーザの姿勢・向き,ユーザの発話などのセンサ情報から,ユーザの動作やキッチンの状態などの内容と確信度とを含むイベント情報が生成される。例えば,カメラが,ボウルに貼付されたマーカを検出したというセンサイベントから,「調理器具が作業台に現れた」というイベント情報が生成される。   As shown in FIG. 10, while the user performs a cooking task, the user's actions and the kitchen are detected from sensor information such as the position of the cooking utensil, the user's posture and orientation, and the user's utterance detected by the sensor group. Event information including content such as the state of the event and the certainty level is generated. For example, event information “a cooking utensil has appeared on the work table” is generated from a sensor event that the camera has detected a marker attached to the bowl.

イベント情報は,調理レシピの該当するステップの状態遷移モデルに入力される。センサイベントから生成された「調理器具(ボウル)が作業台に現れた」,「調理器具(ボウル)に食材(片栗粉)が入った」などのイベント情報は,調理タスクの各ステップ(Sn,Sn+1,…)の状態遷移モデルに入力され,調理タスクにおけるコンテキストが獲得される。これによって,どのステップまたはサブステップが実行されているかを管理することが可能となる。   The event information is input to the state transition model of the corresponding step of the cooking recipe. Event information generated from the sensor event, such as “a cooking utensil (bowl) has appeared on the workbench”, “a food (boiled starch) has entered the cooking utensil (bowl)”, or the like, is included in each step (Sn, Sn + 1) of the cooking task. ,...), And the context in the cooking task is acquired. This makes it possible to manage which step or sub-step is being executed.

タスク進行制御部23は,入力されたイベント情報によって,あるステップSnの最後のサブステップが終了したというコンテキストが獲得されたときは,その調理レシピデータの次のステップSn+1へ切り替える。   When the context that the last sub-step of a certain step Sn is completed is acquired by the input event information, the task progress control unit 23 switches to the next step Sn + 1 of the cooking recipe data.

図11および図12を用いて,調理タスクモデルとセンサイベントとの関係を説明する。ここで,調理レシピデータ(図6参照)では,ステップS1「片栗粉を水で溶く」,ステップS2「牛もも肉を細切りにする」,…,という順で進行する。   The relationship between the cooking task model and the sensor event will be described with reference to FIGS. 11 and 12. Here, in the cooking recipe data (see FIG. 6), the process proceeds in the order of step S1 “melting starch starch with water”, step S2 “slicing beef leg meat”, and so on.

図11は,ステップS1「片栗粉を水で溶く」のサブステップと,入力が期待されるセンサイベントとの関係を示す図である。   FIG. 11 is a diagram showing the relationship between the substep of step S1 “melting starch with water” and the sensor event expected to be input.

ユーザが,インタラクション制御部24により発話された調理タスクの指示に従ってキッチンの食器棚からボウルと片栗粉の容器とを取り出して作業台の上に置くと,カメラによって,ボウルと片栗粉の容器とに貼付されたマーカが検出される。このセンサイベントから生成された「ボウルのマーカが作業台に現れる」,「片栗粉の容器のマーカが作業台に現れる」というイベント情報が状態遷移モデルに入力され,「ユーザが,ボウルを作業台に置いた」,「ユーザが,片栗粉を作業台に置いた」,「ユーザが,計量スプーンを作業台に置いた」というコンテキストが獲得される。これによって,タスク進行制御部23は,ユーザが,サブステップSubS1〜3の動作を行ったことがわかる。   When the user removes the bowl and the starch starch container from the kitchen cupboard according to the instructions of the cooking task uttered by the interaction control unit 24 and puts them on the workbench, the camera pastes them to the bowl and the starch starch container. The detected marker is detected. Event information generated from this sensor event, such as “a bowl marker appears on the workbench” and “a starch marker on the workbench appears” is input to the state transition model. The contexts “placed”, “the user placed the starch on the workbench”, and “the user placed the measuring spoon on the workbench” are acquired. As a result, the task progress control unit 23 knows that the user has performed the operations of the sub-steps SubS1 to SubS3.

その後,ユーザが,片栗粉をボウルに入れることによってボウルの底に貼付されたマーカが見えなくなると,「ボウルのマーカが消える」というイベント情報が入力され,「ユーザが,片栗粉をボウルに入れた」というコンテキストが獲得できるので,ユーザがサブステップSubS4の動作を行ったことがわかる。   After that, when the user puts potato starch into the bowl and the marker affixed to the bottom of the bowl becomes invisible, the event information that “the marker on the bowl disappears” is input, and “the user puts potato starch into the bowl”. Thus, it can be seen that the user has performed the operation of sub-step SubS4.

しかし,ユーザが,計量スプーンでボウルに水を入れ,片栗粉をかき混ぜるという調理動作は,カメラや振動センサによるセンシングでは認識できないことがある。そこで,後述するインタラクション制御などによって,ユーザに対して,片栗粉を溶く動作が終了したかどうかを問い合わせ,ユーザの応答の内容から「ユーザが片栗粉を水で溶いた」というコンテキストを獲得して,ステップS1「片栗粉を水で溶く」の終了を判定する。   However, a cooking operation in which a user puts water into a bowl with a measuring spoon and stirs potato starch may not be recognized by sensing with a camera or a vibration sensor. Therefore, the user is inquired whether or not the operation of melting the starch is finished by using the interaction control described later, and acquires the context that “the user melts the starch with water” from the content of the user's response, The end of S1 “dissolve starch with water” is determined.

その後,図12に示すように,ステップS2「牛もも肉を細切りにする」に制御対象が移される。ステップS1での制御と同様に,ユーザが,システムの指示に従って,冷蔵庫から牛肉の容器,収納部から包丁,まな板を取り出し作業台の上に置くと,カメラによる容器やまな板に貼付されたマーカの検出,包丁が取り出されたことの検出などのセンサイベントから生成されたユーザのイベント情報が入力され,「ユーザが,肉を作業台に置いた」,「ユーザが,包丁を作業台に置いた」,「ユーザが,まな板を作業台に置いた」というコンテキストが獲得される。   Thereafter, as shown in FIG. 12, the control target is shifted to step S <b> 2 “slicing beef leg meat”. Similar to the control in step S1, when the user removes the beef container from the refrigerator, the kitchen knife from the storage unit, and the cutting board according to the instructions of the system and places them on the workbench, the marker attached to the container and cutting board by the camera is displayed. User event information generated from sensor events such as detection and detection of the removal of a kitchen knife is input, and "user puts meat on workbench", "user puts kitchen knife on workbench ”,“ The user places a cutting board on the workbench ”is acquired.

これによって,タスク進行制御部23は,ユーザが,サブステップSubS10〜12の動作を行ったことがわかる。その後,ユーザが肉を切っているときには,作業台の振動センサのセンサイベントから,「ユーザが,作業台でモノ(肉)を切っている」というコンテキストが獲得できるので,ユーザがサブステップSubS13,14の動作を行ったことがわかる。   As a result, the task progress control unit 23 knows that the user has performed the operations of the sub-steps SubS10 to Sub12. Thereafter, when the user is cutting the meat, the context that “the user is cutting the object (meat) on the workbench” can be obtained from the sensor event of the vibration sensor of the workbench, so that the user can execute the sub-step SubS13, It can be seen that 14 operations have been performed.

(4)インタラクション制御
生活タスク支援システム1とユーザとのインタラクションのインタフェースは,インタラクション制御部24,音声出力部25,ディスプレイを出力部とする映像提示部26によって実現される。
(4) Interaction control The interaction interface between the daily life task support system 1 and the user is realized by an interaction control unit 24, an audio output unit 25, and a video presentation unit 26 having a display as an output unit.

本例では,インタラクション制御部24および音声出力部25は,前出の特許文献1の対話システムを構成する対話ロボットによって実施され,例えば,既存の擬人化音声対話エージェントツールキット(Galatea Toolkit )によって実現される(詳細は,特許文献1参照のこと)。   In this example, the interaction control unit 24 and the voice output unit 25 are implemented by a dialogue robot constituting the dialogue system of Patent Document 1 described above, and realized by, for example, an existing anthropomorphic voice dialogue agent tool kit (Galatea Toolkit). (For details, see Patent Document 1).

インタラクション制御部24は,タスク進行制御部23においてセンサイベントと調理タスクモデルとのマッチングによって導出された調理タスクの状態(コンテキスト)が与えられると,その状態に応じたインタラクションを生成する。   When the task progress control unit 23 is given a cooking task state (context) derived by matching the sensor event and the cooking task model in the task progress control unit 23, the interaction control unit 24 generates an interaction according to the state.

ここで,生成されるインタラクションには,次のようなものがある。   Here, the following interactions are generated.

・「現在進行中のステップが終了したかどうかの問いかけ」
センサイベントによっては調理タスクの進行の状況の認識ができない場合に,進行中のステップが終了したか否かを確認するための問いかけを生成し,ユーザに対して発話する。対話ロボットを介して,ユーザに「(今やっている調理ステップは)終わりましたか?」と問いかけ,ユーザから「終わったよ。」という肯定的な応答が得られれば,「現在のステップは終了した」というコンテキストが獲得でき,制御対象が次のステップへ進められる。
・ "Ask whether the current step is finished"
When the progress of the cooking task cannot be recognized depending on the sensor event, a question for confirming whether or not the step in progress is completed is generated and the user is uttered. The interactive robot asks the user, “Is the cooking step I'm done now?”, And if the user gives a positive response, “I'm done.” Can be acquired, and the control target is advanced to the next step.

・「次のステップのガイダンス」
図13に示すように,センサ情報にもとづくコンテキストによって,ユーザが,現在行っているステップSnの最後のサブステップに対応する動作に到達したことが認識された場合に,次のステップSn+1で最初に行うべきサブステップ(動作)のガイダンスが行なわれる。そして,ユーザが指示対象のサブステップの動作に着手したときに,対応するステップの調理レシピデータを提示されるなど,ステップSn+1のタスク進行制御が行われる。
・ “Next Step Guidance”
As shown in FIG. 13, when it is recognized by the context based on the sensor information that the user has reached the operation corresponding to the last sub-step of the current step Sn, first in the next step Sn + 1. Guidance on sub-steps (operations) to be performed is performed. Then, when the user starts the operation of the sub-step to be instructed, the task progress control in step Sn + 1 is performed such that the cooking recipe data of the corresponding step is presented.

・「未実行の調理動作に対する警告」
センサイベントによって,行われるべき調理動作の実行が認識できなかった場合に,未実行のサブステップ(動作)があることを警告する。
・ "Warning for unexecuted cooking action"
When the execution of the cooking operation to be performed cannot be recognized due to the sensor event, a warning is given that there is an unexecuted sub-step (operation).

インタラクション制御部24は,調理タスク実行中のユーザの動作(イベント情報)にもとづく状態遷移モデルと同様に,ユーザの状態情報についてのモデル(ユーザ状態モデル)を生成する。   The interaction control unit 24 generates a model (user state model) for the user state information in the same manner as the state transition model based on the user operation (event information) during execution of the cooking task.

図14に示すように,ユーザ状態モデルは,センサイベントによって得られるユーザの状態情報,調理タスクモデルから得るタスクの状態情報,分散環境行動データベース11に蓄積されたユーザプロファイル情報(ユーザの調理の熟練度など)をもとに,ダイナミックベイジアンによって記述される。インタラクション制御部24は,このユーザ状態モデルにもとづいて,調理タスクのガイダンスの粒度(詳細度),ガイダンス提示のタイミング,ユーザへの警告,提示するメディアの選択などのインタラクション制御パラメータを決定する。   As shown in FIG. 14, the user state model includes user state information obtained from sensor events, task state information obtained from the cooking task model, user profile information stored in the distributed environment behavior database 11 (user cooking skill). Described in dynamic Bayesian based on degrees). The interaction control unit 24 determines the interaction control parameters such as the granularity (detail level) of the guidance of the cooking task, the timing of the guidance presentation, the warning to the user, and the selection of the media to be presented based on this user state model.

これらのインタラクション制御パラメータを使うことによって,ユーザが調理初心者である場合には,システムが事細かに各ステップの調理動作をチェックし,ユーザが調理動作を行わずに次のステップに進もうとしたら警告を発するようにするなど,エラーリカバリー機能をユーザに適応したレベルで実現することが可能となる。   By using these interaction control parameters, if the user is a beginner cooking, the system will carefully check the cooking operation of each step and warn if the user tries to proceed to the next step without performing the cooking operation. The error recovery function can be realized at a level adapted to the user.

(5)調理映像検索による見直し支援
タスク進行制御部23は,ユーザから調理タスクの教師映像データの提示要求があった場合に,要求の内容から,調理タスクのステップまたはそのタスクモデルのサブステップや調理動作を特定する。
(5) Review Support by Cooking Video Search When the user requests presentation of cooking task teacher video data from the user, the task progress control unit 23 determines the cooking task step or the sub-step of the task model from the content of the request. Identify cooking actions.

そして,映像検索部27は,タスク進行制御部23によって特定された調理タスクのステップまたはサブステップに対応する教師映像データをタスク教材データベース13から検索し取得する。また,特定された調理タスクのステップまたはサブステップが実行された時刻をもとにユーザ映像データベース15から該当するユーザ映像データを検索し取得する。   Then, the video search unit 27 searches and acquires the teacher video data corresponding to the step or sub-step of the cooking task specified by the task progress control unit 23 from the task teaching material database 13. Further, the user video data corresponding to the specified cooking task step or sub-step is retrieved from the user video database 15 and acquired.

映像提示部26は,取得されたこれらの映像データを並べてディスプレイに表示する。   The video presentation unit 26 displays the acquired video data side by side on the display.

例えば,ユーザが,調理終了後に肉の炒め具合に問題があると感じ,自分の調理動作を見直したいと考えて「肉を炒めたときの様子が見たい。」と要求する。インタラクション制御部24では,ユーザが発した要求内容から,音声認識処理,形態素解析処理などによって,「肉」,「炒める」といった検索用キーワードを抽出する。この検索用キーワードは,タスク進行制御部23へわたされる。   For example, the user feels that there is a problem with how the meat is fried after the cooking is finished, and wants to review his cooking operation and requests “I want to see what happens when the meat is fried”. The interaction control unit 24 extracts search keywords such as “meat” and “sauté” from a request issued by the user through speech recognition processing, morphological analysis processing, and the like. This search keyword is passed to the task progress control unit 23.

タスク進行制御部23は,検索用キーワードを含む調理タスクのステップをタスク教材データベース13の調理レシピデータから検索する。映像検索部27は,検索された調理タスクのステップに対応する教師映像データを取得する。さらに,タスク進行制御部23は,ユーザが該当する調理レシピのステップを行った時刻情報を分散環境行動データベース11のコンテキストデータベース層115から検索する。映像検索部27は,得られた時刻情報をもとに,ユーザ映像データベース15から該当するユーザ映像データを取得する。   The task progress control unit 23 searches the cooking recipe data in the task teaching material database 13 for the cooking task step including the search keyword. The video search unit 27 acquires teacher video data corresponding to the searched cooking task step. Further, the task progress control unit 23 searches the context database layer 115 of the distributed environment behavior database 11 for time information when the user performs the corresponding cooking recipe step. The video search unit 27 acquires the corresponding user video data from the user video database 15 based on the obtained time information.

そして,映像提示部26は,教師映像データとユーザ映像データを並べてディスプレイに表示する。これにより,ユーザは,調理が終わった後の落ち着いた状態で,お手本となる映像と自分の調理とを比較して見直すことができる。   Then, the video presentation unit 26 displays the teacher video data and the user video data side by side on the display. Thus, the user can review the model image and his / her cooking in a calm state after cooking is completed.

以上,本発明をその実施の形態により説明したが,本発明はその主旨の範囲において種々の変形が可能であることは当然である。   While the present invention has been described above with reference to the embodiments, it is obvious that the present invention can be variously modified within the scope of the gist thereof.

例えば,生活タスク支援システム1は,前出の特許文献1の対話システムに組み込まれたシステムとして実施することができる。この場合に,生活タスク支援システム1の分散環境行動データベース11,タスクモデルデータベース12,タスク教材データベース13,ユーザ映像データベース15,センサ情報収集部21,タスクモデル取得部22,タスク進行制御部23,映像提示部26,映像検索部27などは,対話システムの生活支援システムによって実施される。また,インタラクション制御部24および音声出力部25は対話システムの対話ロボットとして実施される。   For example, the life task support system 1 can be implemented as a system incorporated in the dialogue system of Patent Document 1 described above. In this case, the distributed environment behavior database 11, the task model database 12, the task teaching material database 13, the user video database 15, the sensor information collection unit 21, the task model acquisition unit 22, the task progress control unit 23, the video of the living task support system 1 The presentation unit 26, the video search unit 27, and the like are implemented by a life support system of a dialog system. Further, the interaction control unit 24 and the voice output unit 25 are implemented as a dialog robot of the dialog system.

また,本発明では,生活タスクで使用するオブジェクト(用具,器具など)の位置検出に,RFIDタグによる位置検出システムを利用することができる。   In the present invention, a position detection system using an RFID tag can be used to detect the position of an object (tool, instrument, etc.) used in a daily task.

また,本発明は,コンピュータにより読み取られ実行される処理プログラムとして実施することができる。本発明を実現する処理プログラムは,コンピュータが読み取り可能な,可搬媒体メモリ,半導体メモリ,ハードディスクなどの適当な記録媒体に格納することができ,これらの記録媒体に記録して提供され,または,通信インタフェースを介して種々の通信網を利用した送受信により提供されるものである。   The present invention can also be implemented as a processing program that is read and executed by a computer. The processing program for realizing the present invention can be stored in an appropriate recording medium such as a portable medium memory, a semiconductor memory, and a hard disk that can be read by a computer. It is provided by transmission / reception using various communication networks via a communication interface.

本発明の生活タスク支援システムの構成例を示す図である。It is a figure which shows the structural example of the life task assistance system of this invention. 分散環境行動データベースの構成例を示す図である。It is a figure which shows the structural example of a distributed environment action database. 分散環境行動データベースの構成例および各層のデータ処理を示す図である。It is a figure which shows the structural example of a distributed environment action database, and the data processing of each layer. コンテキストデータの例を示す図である。It is a figure which shows the example of context data. ドメイン知識データおよびタスク知識データ例を示す図である。It is a figure which shows the domain knowledge data and the task knowledge data example. 調理レシピデータの例を示す図である。It is a figure which shows the example of cooking recipe data. ディスプレイの表示例を示す図である。It is a figure which shows the example of a display of a display. 調理タスクのモデル化を説明するための図である。It is a figure for demonstrating modeling of a cooking task. 各種センサによるセンサイベントとイベント情報/状態情報との関係を示す図である。It is a figure which shows the relationship between the sensor event by various sensors, and event information / state information. センサイベント,イベント情報/状態情報の生成,状態遷移モデルへの入力の関係を説明するための図である。It is a figure for demonstrating the relationship of a sensor event, generation | occurrence | production of event information / state information, and the input to a state transition model. 調理タスクモデルとセンサイベントとの関係を説明するための図である。It is a figure for demonstrating the relationship between a cooking task model and a sensor event. 調理タスクモデルとセンサイベントとの関係を説明するための図である。It is a figure for demonstrating the relationship between a cooking task model and a sensor event. 次ステップのガイダンスのインタラクションを説明するための図である。It is a figure for demonstrating the interaction of the guidance of the next step. ユーザ状態モデルの生成を説明するための図である。It is a figure for demonstrating the production | generation of a user state model.

符号の説明Explanation of symbols

1 生活タスク支援システム
11 分散環境行動データベース(DB)
12 タスクモデルデータベース(DB)
13 タスク教材データベース(DB)
15 ユーザ映像データベース(DB)
21 センサ情報収集部
22 タスクモデル取得部
23 タスク進行制御部
24 インタラクション制御部
25 音声出力部
26 映像提示部
27 映像検索部
28 状態遷移モデル記憶部
1 Living Task Support System 11 Distributed Environmental Behavior Database (DB)
12 Task model database (DB)
13 Task teaching material database (DB)
15 User video database (DB)
DESCRIPTION OF SYMBOLS 21 Sensor information collection part 22 Task model acquisition part 23 Task progress control part 24 Interaction control part 25 Audio | voice output part 26 Image | video presentation part 27 Image | video search part 28 State transition model memory | storage part

Claims (10)

ユーザが行う生活タスクについて,生活タスクで使用される語彙を規定するタスク知識情報と,各生活タスクの動作,使用する器具,および実行される場所を含むタスク情報と,ユーザの生活タスクが実行される空間内で計測されたセンサ情報と,前記センサ情報をもとに推論された生活タスク実行中のユーザの動作および状態に関する動作/状態情報と,前記動作/状態情報から推論されるコンテキストとを蓄積する分散環境行動データベースを備える生活タスク支援システムであって,
複数のステップで構成される生活タスクの内容および手順を複数のサブステップで記述したタスクモデルを記憶するタスクモデル記憶手段と,
前記タスクモデル記憶手段から,ユーザによって選択された生活タスクのタスクモデルを抽出するタスクモデル取得手段と,
前記ユーザへの問いかけを生成して出力する処理と当該問いかけに対する前記ユーザの応答内容を解釈する処理とを行って,前記ユーザとのインタラクションを制御するインタラクション制御手段と,
前記抽出されたタスクモデルをもとに,前記分散環境行動データベースに蓄積されるセンサ情報として検出可能なユーザの動作および状態に対応して構成された状態遷移モデルを生成するタスク記述手段と,
前記センサ情報または前記応答内容から生成された前記ユーザの動作情報または状態情報をもとに前記生活タスクにおけるユーザの動作または状態を表すコンテキストを推定し,前記状態遷移モデルから前記コンテキストに合致する前記タスクモデルのサブステップを特定するタスク進行制御手段と,
前記特定されたサブステップに関連付けられた前記生活タスクの内容を,前記ユーザに対して提示するタスク内容提示手段とを備える
ことを特徴とする生活タスク支援システム。
For the daily tasks performed by the user, task knowledge information that defines the vocabulary used in the daily tasks, task information including the operation of each daily task, the equipment used, and the place where it is executed, and the user's daily tasks are executed. Sensor information measured in a space, motion / state information related to a user's motion and state during life tasks inferred based on the sensor information, and context inferred from the motion / state information. A living task support system with a distributed environment behavior database that accumulates,
A task model storage means for storing a task model in which contents and procedures of a life task composed of a plurality of steps are described in a plurality of sub-steps;
Task model acquisition means for extracting a task model of a life task selected by the user from the task model storage means;
An interaction control means for controlling the interaction with the user by performing a process of generating and outputting an inquiry to the user and a process of interpreting a response content of the user in response to the inquiry;
Based on the extracted task model, task description means for generating a state transition model configured corresponding to a user's operation and state detectable as sensor information stored in the distributed environment behavior database;
A context representing the user's action or state in the daily life task is estimated based on the user's action information or state information generated from the sensor information or the response content, and matches the context from the state transition model Task progress control means for identifying substeps of the task model;
A life task support system, comprising: task content presentation means for presenting the content of the life task associated with the specified substep to the user.
前記タスク記述手段は,前記生活タスクの内容および手順が記述されたタスク教材データを取得し,前記タスク教材データの各ステップを複数のサブステップで記述したタスクモデルを生成し,前記生成したタスクモデルから状態遷移モデルを生成する
ことを特徴とする請求項1に記載の生活タスク支援システム。
The task description means acquires task teaching material data in which the contents and procedure of the life task are described, generates a task model in which each step of the task teaching material data is described in a plurality of substeps, and the generated task model The life task support system according to claim 1, wherein a state transition model is generated from.
前記タスク記述手段は,前記分散環境行動データベースから,ユーザに要求された生活タスクに関連するコンテキストを検索し,前記検索したコンテキストに記述された情報をもとに,前記生活タスクのタスクモデルを生成し,前記生成したタスクモデルから状態遷移モデルを生成する
ことを特徴とする請求項1に記載の生活タスク支援システム。
The task description means searches the distributed environment behavior database for a context related to a life task requested by a user, and generates a task model of the life task based on information described in the searched context. The life task support system according to claim 1, wherein a state transition model is generated from the generated task model.
生活タスクの内容および手順が記述されたタスク教材データを記憶するタスク教材データベースを備えるとともに,
前記タスク記述手段は,前記タスク教材データベースから,ユーザによって選択されたタスク教材データを取得して,タスクモデルを生成する
ことを特徴とする請求項2に記載の生活タスク支援システム。
A task teaching material database that stores task teaching material data describing the contents and procedures of daily tasks is provided.
The living task support system according to claim 2, wherein the task description means obtains task teaching material data selected by a user from the task teaching material database and generates a task model.
生活タスクの各ステップにおいて手本となる動作を記録した教師映像データを記憶する教師映像データベースと,
前記教師映像データベースから,前記特定された生活タスクのサブステップに関連する教師映像データを検索する映像検索手段とを備えるとともに,
前記タスク内容提示手段は,前記検索された教師映像データを出力する
ことを特徴とする請求項1または請求項2のいずれか一項に記載の生活タスク支援システム。
A teacher video database for storing teacher video data recording a model action in each step of the life task;
Video search means for searching for teacher video data related to the sub-steps of the identified daily tasks from the teacher video database;
The life task support system according to claim 1, wherein the task content presentation unit outputs the searched teacher video data.
前記生活タスクを実行中のユーザの動作を記録したユーザ映像データを記憶するユーザ映像データベースと,
前記ユーザ映像データベースに,前記ユーザ映像データを蓄積するユーザ映像蓄積処理手段とを備えるとともに,
前記映像検索手段は,前記ユーザから映像提示要求があった場合に,前記教師映像データベースから前記要求にかかる動作または状態または生活タスクのステップのいずれかに該当する教師映像データを検索し,前記ユーザ映像データベースから前記要求にかかるステップを実行したユーザ映像データを検索し,
前記タスク内容提示手段は,前記検索された教師映像データおよびユーザ映像データを出力する
ことを特徴とする請求項5に記載の生活タスク支援システム。
A user video database for storing user video data recording the actions of the user who is performing the life task;
The user video database comprises user video storage processing means for storing the user video data,
When there is a video presentation request from the user, the video search means searches the teacher video database for teacher video data corresponding to either the operation or state relating to the request or the step of a living task, and the user Search the video database for user video data that has executed the step related to the request,
The living task support system according to claim 5, wherein the task content presentation means outputs the searched teacher video data and user video data.
前記インタラクション制御手段は,
前記ユーザとの対話を生成するための言語情報を蓄積する対話用辞書データベースと,
前記コンテキストをもとにユーザに対する問いかけを生成する問いかけ生成手段と,
前記生成された問いかけを音声データに変換して発話する音声合成手段と,
前記ユーザが発話した音声データの内容を認識する音声認識手段とを備える
ことを特徴とする請求項1ないし請求項6のいずれか一項に記載の生活タスク支援システム。
The interaction control means includes:
A dictionary database for dialogue for storing language information for generating dialogue with the user;
A question generating means for generating a question to the user based on the context;
Speech synthesis means for converting the generated question into speech data and speaking;
The living task support system according to any one of claims 1 to 6, further comprising: a voice recognition unit that recognizes the content of voice data spoken by the user.
前記インタラクション制御手段は,前記センサ情報から得られる前記ユーザの状態または前記コンテキストによって得られる生活タスクの進行状態から,前記ユーザの状態情報についてのユーザ状態モデルを生成し,前記ユーザ状態モデルをもとに,前記インタラクションの内容を決定するための所定のパラメータを算出する
ことを特徴とする請求項1ないし請求項7のいずれか一項に記載の生活タスク支援システム。
The interaction control means generates a user state model for the user state information from the state of the user obtained from the sensor information or the progress state of the life task obtained from the context, and based on the user state model The living task support system according to any one of claims 1 to 7, further comprising: calculating a predetermined parameter for determining the content of the interaction.
ユーザが行う生活タスクについて,生活タスクで使用される語彙を規定するタスク知識情報と,各生活タスクの動作,使用する器具,および実行される場所を含むタスク情報と,ユーザの生活タスクが実行される空間内で計測されたセンサ情報と,前記センサ情報をもとに推論された生活タスク実行中のユーザの動作および状態に関する動作/状態情報と,前記動作/状態情報から推論されるコンテキストとを蓄積する分散環境行動データベースを備える生活タスク支援システムであって,
複数のステップで構成される生活タスクの内容および手順が記述されたタスク教材データと,前記生活タスクの各ステップにおいて手本となる動作を記録した教師映像データとを記憶するタスク教材データベースと,
前記ユーザから映像提示要求があった場合に,前記分散環境行動データベースをもとに当該要求にかかる生活タスクを特定し,当該特定した生活タスクにおいて前記要求に合致する動作または状態を表すコンテキストを推定し,前記推定したコンテキストをもとに前記タスク教材データから当該要求にかかる生活タスクのステップを特定する提示対象特定手段と,
前記特定されたステップに対応する教師映像データを,前記タスク教材データベースから抽出する映像検索手段と,
前記抽出された教師映像データを出力する映像提示手段とを備える
ことを特徴とする生活タスク支援システム。
For the daily tasks performed by the user, task knowledge information that defines the vocabulary used in the daily tasks, task information including the operation of each daily task, the equipment used, and the place where it is executed, and the user's daily tasks are executed. Sensor information measured in a space, motion / state information related to a user's motion and state during life tasks inferred based on the sensor information, and context inferred from the motion / state information. A living task support system with a distributed environment behavior database that accumulates,
A task teaching material database storing task teaching material data in which contents and procedures of a living task composed of a plurality of steps are described, and teacher video data in which a model operation is recorded in each step of the living task;
When there is a video presentation request from the user, a life task related to the request is specified based on the distributed environment behavior database, and a context representing an operation or a state that matches the request in the specified life task is estimated. Presenting target specifying means for specifying a step of a living task related to the request from the task teaching material data based on the estimated context;
Video search means for extracting teacher video data corresponding to the identified step from the task teaching material database;
A life task support system comprising: video presentation means for outputting the extracted teacher video data.
前記生活タスクを実行中のユーザの動作を記録したユーザ映像データを記憶するユーザ映像データベースと,
前記ユーザ映像データベースに,前記ユーザ映像データを蓄積するユーザ映像蓄積処理手段とを備えるとともに,
前記映像検索手段は,前記ユーザ映像データベースから前記要求にかかるステップを実行したユーザ映像データを検索し,
前記映像提示手段は,前記検索された教師映像データおよびユーザ映像データを出力する
ことを特徴とする請求項9に記載の生活タスク支援システム。
A user video database for storing user video data recording the actions of the user who is performing the life task;
The user video database comprises user video storage processing means for storing the user video data,
The video search means searches the user video data from the user video database for user video data that has undergone the request step,
The living task support system according to claim 9, wherein the video presentation unit outputs the searched teacher video data and user video data.
JP2006183101A 2006-07-03 2006-07-03 Living task support system Withdrawn JP2008015585A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2006183101A JP2008015585A (en) 2006-07-03 2006-07-03 Living task support system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2006183101A JP2008015585A (en) 2006-07-03 2006-07-03 Living task support system

Publications (1)

Publication Number Publication Date
JP2008015585A true JP2008015585A (en) 2008-01-24

Family

ID=39072562

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2006183101A Withdrawn JP2008015585A (en) 2006-07-03 2006-07-03 Living task support system

Country Status (1)

Country Link
JP (1) JP2008015585A (en)

Cited By (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010108504A (en) * 2008-10-31 2010-05-13 Korea Electronics Telecommun Robot software component thread processsing system and method
WO2012131962A1 (en) * 2011-03-30 2012-10-04 富士通株式会社 Task execution control device, task execution control system, and task execution control method
US8689217B2 (en) 2008-10-31 2014-04-01 Electronics And Telecommunications Research Institute System and method for thread processing robot software components responsive to periodic, dedicated, and passive modes
JP2015152948A (en) * 2014-02-10 2015-08-24 日本電信電話株式会社 Life log recording system and program thereof
WO2016072117A1 (en) * 2014-11-07 2016-05-12 ソニー株式会社 Information processing device, control method, and storage medium
WO2016129159A1 (en) * 2015-02-13 2016-08-18 ソニー株式会社 Information processing system, information processing device, control method, and storage medium
JP2017111837A (en) * 2011-07-05 2017-06-22 サウジ アラビアン オイル カンパニー System, computer medium and method to be executed by computer for providing health information for employees by augmented reality display
JP2017164851A (en) * 2016-03-16 2017-09-21 Kddi株式会社 Work support apparatus and program
CN108363329A (en) * 2017-01-27 2018-08-03 松下知识产权经营株式会社 Information processing unit and information processing method
JP2019164585A (en) * 2018-03-20 2019-09-26 ヤフー株式会社 Information providing device, information providing method, and information providing program
JP2019185185A (en) * 2018-04-03 2019-10-24 東京瓦斯株式会社 Image processing system and program
JP2019185184A (en) * 2018-04-03 2019-10-24 東京瓦斯株式会社 Image processing system and program
JP2020177487A (en) * 2019-04-19 2020-10-29 株式会社Lixil Support equipment and support programs
CN113195177A (en) * 2018-12-27 2021-07-30 川崎重工业株式会社 Robot control device, robot system, and robot control method
WO2023053421A1 (en) * 2021-09-30 2023-04-06 株式会社ウフル Information processing system, information processing device, information processing program, and information processing method
JP7429926B2 (en) 2020-11-27 2024-02-09 日本電信電話株式会社 Communication support devices, methods and programs

Cited By (32)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8689217B2 (en) 2008-10-31 2014-04-01 Electronics And Telecommunications Research Institute System and method for thread processing robot software components responsive to periodic, dedicated, and passive modes
JP2010108504A (en) * 2008-10-31 2010-05-13 Korea Electronics Telecommun Robot software component thread processsing system and method
US9342356B2 (en) 2011-03-30 2016-05-17 Fujitsu Limited Task execution control for generating context information of a user to locate available services
WO2012131962A1 (en) * 2011-03-30 2012-10-04 富士通株式会社 Task execution control device, task execution control system, and task execution control method
JPWO2012131962A1 (en) * 2011-03-30 2014-07-24 富士通株式会社 Task execution control device, task execution control system, and task execution control method
JP5682705B2 (en) * 2011-03-30 2015-03-11 富士通株式会社 Task execution control device, task execution control system, and task execution control method
JP2017111837A (en) * 2011-07-05 2017-06-22 サウジ アラビアン オイル カンパニー System, computer medium and method to be executed by computer for providing health information for employees by augmented reality display
JP2015152948A (en) * 2014-02-10 2015-08-24 日本電信電話株式会社 Life log recording system and program thereof
WO2016072117A1 (en) * 2014-11-07 2016-05-12 ソニー株式会社 Information processing device, control method, and storage medium
JP2019204529A (en) * 2014-11-07 2019-11-28 ソニー株式会社 Information processing system, control method, storage medium, and program
JPWO2016072117A1 (en) * 2014-11-07 2017-08-17 ソニー株式会社 Information processing apparatus, control method, and storage medium
US11640589B2 (en) 2014-11-07 2023-05-02 Sony Group Corporation Information processing apparatus, control method, and storage medium
JP7001181B2 (en) 2014-11-07 2022-01-19 ソニーグループ株式会社 Information processing systems, control methods, and programs
US11010726B2 (en) 2014-11-07 2021-05-18 Sony Corporation Information processing apparatus, control method, and storage medium
JP2021061053A (en) * 2014-11-07 2021-04-15 ソニー株式会社 Information processing system, control method, and program
WO2016129159A1 (en) * 2015-02-13 2016-08-18 ソニー株式会社 Information processing system, information processing device, control method, and storage medium
JPWO2016129159A1 (en) * 2015-02-13 2017-11-24 ソニー株式会社 Information processing system, information processing apparatus, control method, and storage medium
US11615177B2 (en) 2015-02-13 2023-03-28 Sony Corporation Information processing system, information processing device, control method, and storage medium
CN107209562A (en) * 2015-02-13 2017-09-26 索尼公司 Information processing system, information processor, control method and storage media
US10733282B2 (en) 2015-02-13 2020-08-04 Sony Corporation Information processing system, information processing device, control method, and storage medium
JP2017164851A (en) * 2016-03-16 2017-09-21 Kddi株式会社 Work support apparatus and program
CN108363329A (en) * 2017-01-27 2018-08-03 松下知识产权经营株式会社 Information processing unit and information processing method
JP2019164585A (en) * 2018-03-20 2019-09-26 ヤフー株式会社 Information providing device, information providing method, and information providing program
JP7186009B2 (en) 2018-04-03 2022-12-08 東京瓦斯株式会社 Image processing system and program
JP2019185184A (en) * 2018-04-03 2019-10-24 東京瓦斯株式会社 Image processing system and program
JP2019185185A (en) * 2018-04-03 2019-10-24 東京瓦斯株式会社 Image processing system and program
CN113195177A (en) * 2018-12-27 2021-07-30 川崎重工业株式会社 Robot control device, robot system, and robot control method
CN113195177B (en) * 2018-12-27 2024-05-10 川崎重工业株式会社 Robot control device, robot system, and robot control method
JP2020177487A (en) * 2019-04-19 2020-10-29 株式会社Lixil Support equipment and support programs
JP7316831B2 (en) 2019-04-19 2023-07-28 株式会社Lixil Support device and support program
JP7429926B2 (en) 2020-11-27 2024-02-09 日本電信電話株式会社 Communication support devices, methods and programs
WO2023053421A1 (en) * 2021-09-30 2023-04-06 株式会社ウフル Information processing system, information processing device, information processing program, and information processing method

Similar Documents

Publication Publication Date Title
JP2008015585A (en) Living task support system
US10992491B2 (en) Smart home automation systems and methods
EP4005186B1 (en) Provision of a mixed reality service
KR20150045683A (en) Method for providing custumized food life service and custumized food life service providing appratus
JP6941134B2 (en) Assistance systems, methods, and programs to assist users in performing tasks
CN103717358B (en) Control system, display control method and non-transient computer readable storage medium
KR102466438B1 (en) Cognitive function assessment system and method of assessing cognitive funtion
Quintana et al. Augmented reality annotations to assist persons with Alzheimers and their caregivers
JP6713057B2 (en) Mobile body control device and mobile body control program
JP6173281B2 (en) Environment understanding device and environment understanding method
EP3446252A1 (en) Identifying entities based on sensor data
US10952658B2 (en) Information processing method, information processing device, and information processing system
CN109151994B (en) Indoor positioning method and equipment
KR20110035380A (en) Network based recipe information providing system and method
KR20150117603A (en) Identifying movements using a motion sensing device coupled with an associative memory
CN112424731B (en) Information processing apparatus, information processing method, and recording medium
Kranz et al. Sensing technologies and the player-middleware for context-awareness in kitchen environments
JP2003233715A (en) System and method for living information administration and living information processing device
CN112417282B (en) Information recommendation method, food storage equipment and server
CN118586482A (en) Three-dimensional scene graph processing method, system and medium based on embodied intelligence
CN112199406A (en) Information recommendation method, food material storage device and server
TW202022891A (en) System and method of interactive health assessment
JP4058031B2 (en) User action induction system and method
JP7316916B2 (en) Management device and program
JP2007304692A (en) Event retrieval device, method and program

Legal Events

Date Code Title Description
A300 Application deemed to be withdrawn because no request for examination was validly filed

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20091006