JP7537207B2 - Information processing device, information processing method, and program - Google Patents
Information processing device, information processing method, and program Download PDFInfo
- Publication number
- JP7537207B2 JP7537207B2 JP2020160244A JP2020160244A JP7537207B2 JP 7537207 B2 JP7537207 B2 JP 7537207B2 JP 2020160244 A JP2020160244 A JP 2020160244A JP 2020160244 A JP2020160244 A JP 2020160244A JP 7537207 B2 JP7537207 B2 JP 7537207B2
- Authority
- JP
- Japan
- Prior art keywords
- behavior
- information
- user
- behavior pattern
- unit
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Landscapes
- Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
- Measuring And Recording Apparatus For Diagnosis (AREA)
- Measurement And Recording Of Electrical Phenomena And Electrical Characteristics Of The Living Body (AREA)
- Measuring Pulse, Heart Rate, Blood Pressure Or Blood Flow (AREA)
Description
本発明は、情報処理装置、情報処理方法、およびプログラムに関する。 The present invention relates to an information processing device, an information processing method, and a program.
ユーザに装着されるウェアラブルデバイスを用いて、ユーザの動きを検出してユーザの行動を識別する技術が知られている。 Technology is known that uses a wearable device worn by a user to detect the user's movements and identify the user's behavior.
例えば、特許文献1には、ユーザの加速度情報を検出し、検出された加速度情報を用いて動作モードの制御を行う携帯電話装置が記載されている。特許文献2には、ユーザの所望の部位の動作情報を計測し、全身の運動状態を認識する動作情報計測システムが記載されている。
For example,
ここで、ユーザの行動状態に関する情報に基づいて、ユーザの行動パターンを特定することが求められている。 Here, it is required to identify the user's behavioral pattern based on information about the user's behavioral state.
本発明は、ユーザの行動状態に関する情報に基づいて、ユーザの行動パターンを特定することのできる情報処理装置、情報処理方法、およびプログラムを提供することを目的とする。 The present invention aims to provide an information processing device, an information processing method, and a program that can identify a user's behavioral pattern based on information related to the user's behavioral state.
本発明の一態様に係る情報処理装置は、ユーザの行動状態に関する行動状態情報を検出する行動状態センサと、前記ユーザの生体情報に関する生体情報を検出する生体センサと、前記生体情報に基づいて、前記ユーザの自律神経活性度を算出する自律神経活性度算出部と、前記自律神経活性度の強度に応じて出力部からの出力の強度を変更する出力制御部と、を備える。 An information processing device according to one aspect of the present invention includes a behavioral state sensor that detects behavioral state information related to a user's behavioral state, a biosensor that detects bioinformation related to the user's bioinformation, an autonomic nerve activity calculation unit that calculates the autonomic nerve activity of the user based on the bioinformation, and an output control unit that changes the intensity of the output from the output unit according to the intensity of the autonomic nerve activity.
本発明の一態様に係る情報処理方法は、ユーザの行動状態に関する行動状態情報を検出するステップと、前記ユーザの生体情報に関する生体情報を検出するステップと、前記生体情報に基づいて、前記ユーザの自律神経活性度を算出するステップと、前記自律神経活性度の強度に応じて出力部からの出力の強度を変更するステップと、を含む。 An information processing method according to one aspect of the present invention includes the steps of detecting behavioral state information related to a behavioral state of a user, detecting bioinformation related to the bioinformation of the user, calculating the autonomic nerve activity of the user based on the bioinformation, and changing the intensity of the output from an output unit according to the intensity of the autonomic nerve activity.
本発明の一態様に係るプログラムは、ユーザの行動状態に関する行動状態情報を検出するステップと、前記ユーザの生体情報に関する生体情報を検出するステップと、前記生体情報に基づいて、前記ユーザの自律神経活性度を算出するステップと、前記自律神経活性度の強度に応じて出力部からの出力の強度を変更するステップと、をコンピュータに実行させる。 A program according to one aspect of the present invention causes a computer to execute the steps of detecting behavioral state information related to a user's behavioral state, detecting bioinformation related to the user's bioinformation, calculating the autonomic nerve activity of the user based on the bioinformation, and changing the intensity of the output from an output unit according to the intensity of the autonomic nerve activity.
本発明によれば、ユーザの行動状態に関する情報に基づいて、ユーザの行動パターンを特定することができる。 According to the present invention, it is possible to identify a user's behavioral pattern based on information about the user's behavioral state.
以下、添付図面を参照して、本発明に係る実施形態を詳細に説明する。なお、この実施形態により本発明が限定されるものではなく、また、実施形態が複数ある場合には、各実施形態を組み合わせて構成するものも含む。また、以下の実施形態において、同一の部位には同一の符号を付することにより重複する説明を省略する。 Hereinafter, an embodiment of the present invention will be described in detail with reference to the attached drawings. Note that the present invention is not limited to this embodiment, and when there are multiple embodiments, it also includes configurations in which the respective embodiments are combined. In addition, in the following embodiments, the same parts are given the same reference numerals, and duplicate explanations will be omitted.
[第1実施形態]
図1は、第1実施形態に係る情報処理装置の模式図である。図1に示すように、情報処理装置10は、ユーザUの体に装着される、いわゆるウェアラブルデバイスである。本実施形態の例では、情報処理装置10は、ユーザUの目に装着される装置10Aと、ユーザUの耳に装着される装置10Bと、ユーザの腕に装着される装置10Cとを含む。ユーザUの目に装着される装置10AはユーザUに視覚刺激を出力する(画像を表示する)後述の表示部26Aを含み、ユーザUの耳に装着される装置10Bは、ユーザUに聴覚刺激(音声)を出力する後述の音声出力部26Bを含み、ユーザUの腕に装着される装置10Cは、ユーザUに触覚刺激を出力する後述の触覚刺激出力部26Cを含む。ただし、図1の構成は一例であり、装置の数や、ユーザUへの装着位置も任意であってよい。例えば、情報処理装置10は、ウェアラブルデバイスに限られず、ユーザUに携帯される装置であってよく、例えばいわゆるスマートフォンやタブレット端末などであってもよい。
[First embodiment]
FIG. 1 is a schematic diagram of an information processing device according to the first embodiment. As shown in FIG. 1, the
図2は、第1実施形態に係る情報処理装置の構成例を示すブロック図である。図1に示すように、情報処理装置10は、行動状態センサ20と、入力部22と、出力部24と、通信部26と、記憶部28と、制御部30とを備える。
FIG. 2 is a block diagram showing an example of the configuration of an information processing device according to the first embodiment. As shown in FIG. 1, the
行動状態センサ20は、情報処理装置10を装着しているユーザUの行動状態に関する行動状態情報を検出するセンサである。ユーザUの行動状態情報には、ユーザUの行動に関する各種の情報が含まれ得る。ユーザUの行動状態情報には、少なくともユーザUの物理的な身体の動き、行動をする日時、行動をする場所、行動を行っている時間に関する情報が含まれ得る。
The behavioral state sensor 20 is a sensor that detects behavioral state information related to the behavioral state of the user U wearing the
行動状態センサ20は、カメラ20Aと、マイク20Bと、GNSS受信器20Cと、加速度センサ20Dと、ジャイロセンサ20Eと、光センサ20Fと、温度センサ20Gと、湿度センサ20Hとを含む。ただし、行動状態センサ20は、行動状態情報を検出する任意のセンサを含むものであってよく、例えば、カメラ20Aと、マイク20Bと、GNSS受信器20Cと、加速度センサ20Dと、ジャイロセンサ20Eと、光センサ20Fと、温度センサ20Gと、湿度センサ20Hとの、少なくとも1つを含んだものであってよいし、他のセンサを含んだものであってもよい。
The behavioral state sensor 20 includes a camera 20A, a
カメラ20Aは、撮像装置であり、行動状態情報として、情報処理装置10(ユーザU)の周辺の可視光を検出することで、情報処理装置10の周辺を撮像する。カメラ20Aは、所定のフレームレート毎に撮像するビデオカメラであってよい。情報処理装置10においてカメラ20Aの設けられる位置や向きは任意であるが、例えば、カメラ20Aは、図1に示す装置10Aに設けられており、撮像方向がユーザUの顔が向いている方向であってよい。これにより、カメラ20Aは、ユーザUの視線の先にある対象物を、すなわちユーザUの視野の範囲に入る対象物を、撮像できる。また、カメラ20Aの数は任意であり、単数であっても複数であってもよい。なお、カメラ20Aが複数ある場合には、カメラ20Aが向いている方向の情報も、取得される。
The camera 20A is an imaging device, and captures the surroundings of the
マイク20Bは、行動状態情報として、情報処理装置10(ユーザU)の周辺の音声(音波情報)を検出するマイクである。情報処理装置10においてマイク20Bの設けられる位置、向き、及び数などは任意である。なお、マイク20Bが複数ある場合には、マイク20Bが向いている方向の情報も、取得される。
The
GNSS受信器20Cは、行動状態情報として、情報処理装置10(ユーザU)の位置情報を検出する装置である。ここでの位置情報とは、地球座標である。本実施形態では、GNSS受信器20Cは、いわゆるGNSS(Global Navigation Satellite System)モジュールであり、衛星からの電波を受信して、情報処理装置10(ユーザU)の位置情報を検出する。
The
加速度センサ20Dは、行動状態情報として、情報処理装置10(ユーザU)の加速度を検出するセンサであり、例えば、重力、振動、及び衝撃などを検出する。 The acceleration sensor 20D is a sensor that detects the acceleration of the information processing device 10 (user U) as behavioral state information, for example, gravity, vibration, and impact.
ジャイロセンサ20Eは、行動状態情報として、情報処理装置10(ユーザU)の回転や向きを検出するセンサであり、コリオリの力やオイラー力や遠心力の原理などを用いて検出する。
The
光センサ20Fは、行動状態情報として、情報処理装置10(ユーザU)の周辺の光の強度を検出するセンサである。光センサ20Fは、可視光線や赤外線や紫外線の強度を検出できる。
The
温度センサ20Gは、行動状態情報として、情報処理装置10(ユーザU)の周辺の温度を検出するセンサである。 The temperature sensor 20G is a sensor that detects the temperature around the information processing device 10 (user U) as behavioral status information.
湿度センサ20Hは、行動状態情報として、情報処理装置10(ユーザU)の周辺の湿度を検出するセンサである。
The
入力部22は、ユーザの操作を受け付ける装置であり、例えばタッチパネルなどであってよい。
The
出力部24は、情報処理装置10による出力結果を出力する。出力部24は、例えば映像を表示する表示部24Aと、音声を出力する音声出力部24Bとを有する。本実施形態では、表示部24Aは、例えば、いわゆるHMD(Head Mounted Display)である。音声出力部24Bは、音声を出力するスピーカである。
The
通信部26は、外部の装置などと通信するモジュールであり、例えば、アンテナなどを含んでよい。通信部26による通信方式は、本実施形態では無線通信であるが、通信方式は任意であってよい。
The
記憶部28は、制御部30の演算内容やプログラムなどの各種情報を記憶するメモリであり、例えば、RAM(Random Access Memory)と、ROM(Read Only Memory)のような主記憶装置と、HDD(Hard Disk Drive)などの外部記憶装置とのうち、少なくとも1つ含む。
The
記憶部28には、学習モデル28Aと、地図データ28Bとが記憶されている。学習モデル28Aは、環境情報に基づいてユーザUのおかれている環境を特定するために用いられるAIモデルである。地図データ28Bは、実在の建造物や自然物などの位置情報を含んだデータであり、地球座標と実在の建造物や自然物などとが、関連付けられたデータといえる。学習モデル28A、及び地図データ30Bなどを用いた処理については、後述する。なお、学習モデル28A、及び地図データ28Bや、記憶部28が保存する制御部30用のプログラムは、情報処理装置10が読み取り可能な記録媒体に記憶されていてもよい。また、記憶部28が保存する制御部30用のプログラムや、学習モデル28A、及び地図データ28Bは、記憶部28に予め記憶されていることに限られず、これらのデータを使用する際に、情報処理装置10が通信によって外部の装置から取得してもよい。
The
制御部30は、情報処理装置10の各部の動作を制御する。制御部30は、例えば、CPU(Central Processing Unit)やMPU(Micro Processing Unit)等によって、図示しない記憶部に記憶されたプログラムがRAM等を作業領域として実行されることにより実現される。制御部30は、例えば、ASIC(Application Specific Integrated Circuit)やFPGA(Field Programmable Gate Array)等の集積回路により実現されてもよい。制御部30は、ハードウェアと、ソフトウェアとの組み合わせで実現されてもよい。
The control unit 30 controls the operation of each unit of the
制御部30は、行動状態情報取得部40と、行動パターン情報生成部42と、行動スコア算出部44と、行動パターン特定部46と、記憶制御部48と、出力制御部50とを備える。
The control unit 30 includes a behavioral state information acquisition unit 40, a behavioral pattern
行動状態情報取得部40は、行動状態センサ20を制御して、行動状態センサ20にユーザUの行動状態情報を検出させる。行動状態情報取得部40は、行動状態センサ20が検出した行動状態情報を取得する。 The behavioral state information acquisition unit 40 controls the behavioral state sensor 20 to cause the behavioral state sensor 20 to detect behavioral state information of the user U. The behavioral state information acquisition unit 40 acquires the behavioral state information detected by the behavioral state sensor 20.
行動パターン情報生成部42は、行動状態情報取得部40が取得した行動状態情報に基づいて、行動パターン情報を生成する。行動パターン情報生成部42は、例えば、行動状態情報に基づいて、少なくともユーザUの行動状態が検出された日時、場所、時間のパラメータを座標軸とする多次元空間に行動パターン情報を生成する。
The behavior pattern
行動スコア算出部44は、行動パターン情報生成部42が生成した行動パターン情報に基づいて、行動スコアを算出する。行動スコア算出部44は、例えば、行動状態情報が集まる行動パターン情報群の密度が所定の密度を超えている空間ごとにグループ化する。行動スコア算出部44は、グループ化された行動パターン情報群を含む空間に基づいて、行動パターン情報群の行動スコアを算出する。具体的には、行動スコア算出部44は、例えば、行動パターン情報群を含む空間の大きさに関する情報を行動スコアとして算出する。
The behavior
行動パターン特定部46は、行動スコア算出部44が算出した行動スコアに基づいて、ユーザUの行動パターンを特定する。行動パターン特定部46は、行動スコアの値が所定の閾値を超えている行動パターン情報群に対応する行動をユーザUの行動パターンであると判定する。行動パターン特定部46は、例えば、行動状態情報取得部40が取得した画像データ、音声データ、位置情報、加速度情報、姿勢情報、赤外線及び紫外線の強度情報、温度情報、及び湿度情報などに基づいて、ユーザUが行っていた行動の種類を特定する。
The behavior
記憶制御部48は、記憶部28を制御して、記憶を行わせる。行動パターン特定部46が特定したユーザUの行動パターンに関する情報を記憶部28に記憶する。記憶制御部48は、行動パターン特定部46が特定したユーザUの行動パターンに関する情報を所定のフォーマットで記憶部28に記憶する。所定のフォーマットについては、後述する。
The
出力制御部50は、出力部24を制御して、出力を行わせる。出力制御部50は、例えば、表示部24Aを制御して、行動パターンに関する情報を表示させる。出力制御部50は、例えば、音声出力部24Bを制御して、行動パターンに関する情報を音声で出力する。
The output control unit 50 controls the
[処理内容]
図3を用いて、第1実施形態に係る情報処理装置10の処理内容について説明する。図3は、第1実施形態に係る情報処理装置10の処理の流れの一例を示すフローチャートである。
[Processing content]
The processing contents of the
制御部30は、行動状態センサ20からユーザUの行動に関する行動状態情報を取得する(ステップS10)。具体的には、行動状態情報取得部40は、情報処理装置10(ユーザU)の周辺を撮像した画像データをカメラ20Aから取得する。行動状態情報取得部40は、情報処理装置10(ユーザU)の周辺の音声を収音した音声データをマイク20Bから取得する。行動状態情報取得部40は、情報処理装置10(ユーザU)の位置情報をGNSS受信器20Cから取得する。行動状態情報取得部40は、情報処理装置10(ユーザU)の加速度情報を加速度センサ20Dから取得する。行動状態情報取得部40は、情報処理装置10(ユーザU)の姿勢情報をジャイロセンサ20Eから取得する。行動状態情報取得部40は、情報処理装置10(ユーザU)の周辺の赤外線及び紫外線の強度情報を光センサ20Fから取得する。行動状態情報取得部40は、情報処理装置10(ユーザU)の周辺の温度情報を温度センサ20Gから取得する。行動状態情報取得部40は、情報処理装置10(ユーザU)の周辺の湿度情報を湿度センサ20Hから取得する。行動状態情報取得部40は、これらの情報を、所定期間ごとに、逐次取得する。行動状態情報取得部40は、それぞれの行動状態情報を、同じタイミングで取得してもよいし、異なるタイミングで取得してもよい。また、次の行動状態情報を取得するまでの所定期間は、任意に設定してよく、環境情報毎に所定期間を同じにしてもよいし、異ならせてもよい。
The control unit 30 acquires behavioral state information related to the behavior of the user U from the behavioral state sensor 20 (step S10). Specifically, the behavioral state information acquisition unit 40 acquires image data of the surroundings of the information processing device 10 (user U) from the camera 20A. The behavioral state information acquisition unit 40 acquires audio data of the surroundings of the information processing device 10 (user U) from the
ユーザUの行動には、行動自体の物理的な身体の動き、その行動をする日時、その行動をする場所、その行動をその場所で行っている時間の3つの要素が含まれ得る。ユーザUの行動には、ユーザUの身体の動きだけでなく、例えば、「ゴルフをする」、「映画を見る」、「買い物をする」などの行為も含まれ得る。行動状態情報取得部40が取得したユーザUの身体の動きが同じであっても、位置情報が異なっていれば行っている行為が異なることもあり得る。 The behavior of user U may include three elements: the physical body movements of the behavior itself, the date and time the behavior is performed, the place where the behavior is performed, and the time the behavior is performed at that place. The behavior of user U may include not only the body movements of user U, but also actions such as "playing golf," "watching a movie," and "shopping." Even if the body movements of user U acquired by the behavioral state information acquisition unit 40 are the same, the actions being performed may be different if the position information is different.
制御部30は、ユーザUの行動パターン情報を生成する(ステップS11)。具体的には、行動パターン情報生成部42は、行動状態情報取得部40が取得したユーザUの行動状態情報に基づいて、ユーザUの行動パターン情報を生成する。制御部30は、行動パターン情報群をグループ化する(ステップS12)。具体的には、行動パターン情報生成部42は、行動パターン情報が集まる行動パターン情報群の密度が所定の密度を超えている空間ごとにグループ化する。制御部30は、行動スコアを算出する(ステップS13)。具体的には、行動スコア算出部44は、行動パターン情報群を含む空間の中心から端部までの距離を行動スコアとして算出する。言い換えれば、行動スコア算出部44は、行動パターン情報群を含む空間の大きさを行動スコアとして算出する。
The control unit 30 generates behavior pattern information of the user U (step S11). Specifically, the behavior pattern
図4は、行動パターン情報を生成する多次元空間について説明するための図である。 Figure 4 is a diagram explaining the multidimensional space in which behavior pattern information is generated.
図4は、日時、場所、時間を座標軸とする3次元空間を示す。図4では、日時は0時から24時、場所は自宅からの1次元的な直線距離、時間は行動の開始と判断されてから終了と判断されるまでの時間であるが、これに限られない。例えば、場所は名称および住所などであってもよい。 Figure 4 shows a three-dimensional space with date, time, and location as coordinate axes. In Figure 4, date and time is from midnight to midnight, location is the one-dimensional linear distance from home, and time is the time from when an action is determined to start to when it is determined to end, but this is not limited to this. For example, location may be a name and address, etc.
行動パターン情報生成部42は、図4に示す3次元空間において、所定の時間間隔ごとに点Pをプロットすることで行動パターン情報を生成する。行動パターン情報生成部42は、例えば、1分間隔ごとに点Pをプロットするが、これに限られない。行動パターン情報生成部42は、例えば、ユーザUが「正午頃」に「エリアA2付近」で、「2時間」映画を見ていたとする。この場合、行動パターン情報生成部42は、「正午頃」と、「エリアA2付近」と、「2時間」とか交差する点から日時の軸と平行に、「14時頃」まで所定間隔で点Pをプロットする。なお、ユーザUが映画館にいたことは、行動パターン特定部46が、ユーザUの周辺の画像データ、音声データ、位置情報、加速度情報、姿勢情報、赤外線及び紫外線の強度情報、温度情報、及び湿度情報などに基づいて、特定することができる。ユーザUの行動として「食料品を購入する」の場合、通常、スーパーマーケット及びデパートの地下街などの食料品店の候補は複数あり得る。
The behavior pattern
行動パターン情報生成部42は、図4に示す3次元空間において、行動パターン情報として生成されて点Pが集まる行動パターン情報群の密度が所定の密度を超えている空間を同一の行動パターンとしてグループ化する。行動パターン情報生成部42は、例えば、行動パターン情報が生成され得る空間Sに対して、単位空間USを用いてスキャニングを行う。行動パターン情報生成部42は、例えば、空間Sの各箇所における単位空間USに含まれる点Pの数をカウントする。行動パターン情報生成部42は、例えば、単位空間USに含まれる点Pの数が最も多い箇所を行動パターン情報の中心として特定する。行動パターン情報生成部42は、点Pの数が最も多い単位空間USの周囲の単位空間USに含まれる点Pの数をカウントし、点Pの数が最も多い単位空間USの60%程度の点Pが含まれている単位空間USまでを同一のグループGとして特定する。行動スコア算出部44は、例えば、グループGの中心から何れかの面に引いた垂線の長さを行動スコアとして算出する。行動スコア算出部44は、例えば、グループGの体積を行動スコアとして算出する。なお、行動パターン情報生成部42は、図4に示す3次元空間において、複数のグループGを特定することもあり得る。
The behavior pattern
ここで、ユーザUの行動には、例えば、「車の購入」であれば「ディーラーに行く」及び「椅子の購入」であれば「ホームセンターに行く」などの購入する対象が頻繁ではないものを購入する行動もあり得る。これらの行動については、図4に示す3次元空間上において、場所も、時間も、日時もばらばらにプロットされるものと考えられる。しかしながら、例えば、ユーザUが毎日朝6時に、近くの「公園」で「体操」を「約10分」するとしたら、3次元空間上にプロットされる点は日を追うごとに空間上に密集してくる。同じ公園の場所の中でも数mから数十mは体操をする場所が日によって違うこともあり得るし、時間も10分から±2分程度ばらつくこともあり得る。このため、行動パターン情報生成部42は、3次元空間上において比較的大きな密集された群のように偏りがあるように行動パターン情報をプロットして生成し得る。このように、比較的簡単な情報である時刻、場所、時間というパラメータを座標軸に選ぶことで、特定の揺らぎを持つ3次元空間の密集した群を1つの行動パターンとして扱うことができるようになる。
Here, the behavior of the user U may include behavior of purchasing items that are not purchased frequently, such as "going to a dealer" for "purchasing a car" and "going to a home improvement center" for "purchasing a chair". It is considered that these behaviors are plotted in the three-dimensional space shown in FIG. 4 in a random manner in terms of location, time, and date and time. However, for example, if the user U does "exercises" for "about 10 minutes" at 6 a.m. every day in a nearby "park", the points plotted in the three-dimensional space become denser in space with each passing day. Even in the same park, the place where the exercises are done may differ from day to day by several meters to several tens of meters, and the time may vary from 10 minutes to about ±2 minutes. For this reason, the behavior pattern
図4に示す例では、ユーザUの行動パターンを3次元空間上に示したが、本発明はこれに限定されない。本実施形態では、ユーザUの行動パターンは、任意の多次元空間に生成してよい。例えば、場所は「自宅からの直線距離」としたが、場所を「緯度」と「経度」としてもよい。この場合、行動パターン情報が生成される空間は、4次元空間となる。さらに、日時は「0時から24時」として1日間を示したが、「曜日」として7単位のスカラー値を持つ軸を加えて、5次元空間としてもよい。すこの場合、例えば、ユーザUが月曜日から金曜日に出勤し、土曜日及び日曜日が休日である場合、月曜日から金曜日と、土曜日及び日曜日とでは、行動パターン情報群のプロットが大きく変化し得る。「曜日」の軸の視点で見ると、日常行動の行動パターンと、非日常行動な行動パターンとを判別しやすくなる。日常行動及び非日常行動の行動パターンについては、後述する。 In the example shown in FIG. 4, the behavior pattern of user U is shown in a three-dimensional space, but the present invention is not limited to this. In this embodiment, the behavior pattern of user U may be generated in any multidimensional space. For example, the location is set to "straight-line distance from home," but the location may be set to "latitude" and "longitude." In this case, the space in which the behavior pattern information is generated is a four-dimensional space. Furthermore, the date and time are shown as "0:00 to 24:00" for one day, but an axis having a scalar value of seven units as "day of the week" may be added to make it a five-dimensional space. In this case, for example, if user U works from Monday to Friday and Saturday and Sunday are holidays, the plot of the behavior pattern information group may change significantly between Monday to Friday and Saturday and Sunday. From the perspective of the "day of the week" axis, it is easier to distinguish between daily behavior patterns and non-daily behavior patterns. Daily behavior patterns and non-daily behavior patterns will be described later.
なお、時間は、その行動の開始から終了までの時間としたが、本発明はこれに限られない。例えば、「バットの素振りを200回行った」とか、「何歩歩いた(又は走った)」とかなどの断続的な継続事象のような行動である場合、頻度であってもよい。例えば、ユーザUが定期的に運動をする習慣が場合に時間を頻度に変更することにより、あらゆる行動パターンを「動き」という「運動」のパラメータとして捉えることができ、ユーザUにとって興味あるデータとして表示できる可能性が高くなる。 Note that, although the time is described as the time from the start to the end of the action, the present invention is not limited to this. For example, in the case of an action that is an intermittent, continuing event such as "took 200 practice swings at a bat" or "how many steps walked (or ran)", frequency may be used. For example, if user U has the habit of exercising regularly, by changing the time to frequency, any behavioral pattern can be captured as a parameter of "movement" or "exercise", increasing the possibility of displaying data that is of interest to user U.
図3に戻る。制御部30は、行動スコアが閾値未満であるか否かを判定する(ステップS14)。具体的には、行動パターン特定部46は、ステップS13で行動スコア算出部44が算出した行動スコアが所定の閾値未満であるか否かを判定する。閾値未満であると判定された場合(ステップS14;Yes)、ステップS15に進む。閾値未満でないと判定された場合(ステップS14;No)、ステップS18に進む。
Returning to FIG. 3, the control unit 30 determines whether or not the behavior score is less than the threshold value (step S14). Specifically, the behavior
ステップS14でYesと判定された場合、制御部30は、行動パターンを特定する(ステップS15)。具体的には、行動パターン特定部46は、行動スコアが所定の閾値以下であった行動パターン情報群に対応する行動をユーザUの行動パターンであると特定する。
If the answer to step S14 is Yes, the control unit 30 identifies the behavior pattern (step S15). Specifically, the behavior
制御部30は、特定された行動パターンの行動状態の種類を識別する(ステップS16)。具体的には、行動パターン特定部46は、行動状態情報取得部40が取得した行動状態情報に基づいて、ユーザUが行った行動状態の種類を識別してよい。
The control unit 30 identifies the type of behavioral state of the identified behavior pattern (step S16). Specifically, the behavioral
より具体的には、行動パターン特定部46は、例えば、学習モデル28Aを用いて、ユーザUの行動状態を特定してもよい。学習モデル28Aは、行動状態センサ20の検出結果と、行動状態センサ20の検出結果が示す行動状態の種類を示す情報とを1つのデータセットとし、複数のデータセットを教師データとして学習して構築されたAIモデルである。行動パターン特定部46は、学習済みの学習モデル28Aに、行動状態センサ20の検出結果を入力して、その検出結果が示す行動状態の種類を示す情報を取得して、ユーザUの行動状態の種類を識別する。行動パターン特定部46は、学習済みの学習モデル28Aを用いて、例えば、ユーザUがゴルフをしている、ショッピングをしている、映画館にいることなどを特定する。
More specifically, the behavior
制御部30は、行動パターンを記憶部28に記憶させる(ステップS17)。具体的には、記憶制御部48は、ステップS16で特定された行動パターンを所定のフォーマットで記録する。
The control unit 30 stores the behavior pattern in the memory unit 28 (step S17). Specifically, the
図5は、行動パターンを記憶するフォーマットを説明するための図である。本実施形態では、行動パターンは、例えば、16種類から64種類程度の行動を予測できる場所を予め対応付けられ得る。例えば、「ゴルフ場」であれば「ゴルフをしている」ことが予測でき、「映画館」であれば「映画を見ている」ことが予測でき、「ショッピングセンター」であれば「買い物をしている」ことが予測でき、「公園」であれば「体操をしている」ことが予測できる。本実施形態は、ユーザUの位置情報は、行動状態センサ20のGNSS受信器20Cから取得できるので、数週間程度に渡って、ユーザUが訪れた場所を登録することができる。これにより、本実施形態は、ユーザUのライフスタイルに係る行動パターンの候補に順番に番号を付けることができる。
Figure 5 is a diagram for explaining the format for storing behavioral patterns. In this embodiment, behavioral patterns can be associated in advance with locations that can predict, for example, 16 to 64 types of behavior. For example, a "golf course" can predict "playing golf," a "movie theater" can predict "watching a movie," a "shopping center" can predict "shopping," and a "park" can predict "doing exercises." In this embodiment, the location information of user U can be obtained from the
図5に示すように、記憶フォーマットF1には、領域D1と、領域D2と、領域D3と、領域D4と、領域D5とを、含み得る。 As shown in FIG. 5, storage format F1 may include areas D1, D2, D3, D4, and D5.
領域D1には、特定された行動パターンをナンバリングされた数値が記憶される。領域D1は、例えば、3バイトで構成される。領域D2には、行動パターン情報を群としてプロットした空間の次元数が記憶される。領域D2は、例えば、1バイトで構成される。この場合、空間は最大で、255次元になり得る。領域D3には、ユーザUの行動パターンであると判定された、行動パターン情報群の行動スコアRが記憶される。行動スコアRは、行動パターンの判定誤差の揺らぎを持ち、行動スコアRが小さい値であるほど、行動パターンの信頼度が高いことを意味する。領域D4は、リザーブ領域である。リザーブ領域の最後の1バイトの領域の最終ビットである領域D5には、行動パターンが日常であるものか、非日常であるものかを示す識別子が記憶される。領域D5には、後述する日常行動の行動パターンである場合には0が記述され、非日常行動の行動パターンである場合には1が記述される。リザーブ領域には、各々の行動パターンが発生したときに、付随的な情報を追加したい場合に使用され得る。リザーブ領域は、例えば、6バイト以上の領域を持ち、N次元(Nは任意の整数)の次元に相当する各数字情報を記述してもよい。 In the area D1, a number numbered to the identified behavior pattern is stored. The area D1 is composed of, for example, 3 bytes. The area D2 stores the number of dimensions of the space in which the behavior pattern information is plotted as a group. The area D2 is composed of, for example, 1 byte. In this case, the space can be up to 255 dimensions. In the area D3, the behavior score R of the behavior pattern information group determined to be the behavior pattern of the user U is stored. The behavior score R has a fluctuation of the judgment error of the behavior pattern, and the smaller the value of the behavior score R, the higher the reliability of the behavior pattern. The area D4 is a reserved area. In the area D5, which is the last bit of the last 1-byte area of the reserved area, an identifier indicating whether the behavior pattern is everyday or non-everyday is stored. In the area D5, 0 is written if the behavior pattern is an everyday behavior pattern described later, and 1 is written if the behavior pattern is an non-everyday behavior pattern. The reserved area can be used when you want to add additional information when each behavior pattern occurs. The reserved area may, for example, have an area of 6 bytes or more and may contain numerical information corresponding to N dimensions (N is any integer).
図3に戻る。制御部30は、他のグループがあるか否かを判定する(ステップS18)。具体的には行動スコア算出部44は、行動スコアを算出すべき、グループ化された行動パターン情報群があるか否かを判定する。他のグループがあると判定された場合(ステップS18;Yes)、ステップS13に進む。他のグループがないと判定された場合(ステップS18;No)、ステップS19に進む。
Returning to FIG. 3, the control unit 30 determines whether or not there are other groups (step S18). Specifically, the behavior
制御部30は、処理を終了するか否かを判定する(ステップS19)。具体的には、制御部30は、処理を終了する操作を受け付けた場合、及び電源をオフする操作などを受け付けた場合に、処理を終了すると判定する。処理を終了しないと判定された場合(ステップS19;No)、ステップS10に進む。処理を終了すると判定された場合(ステップS19;Yes)、図3の処理を終了する。 The control unit 30 determines whether or not to end the process (step S19). Specifically, the control unit 30 determines to end the process when an operation to end the process, or an operation to turn off the power, etc. is received. If it is determined that the process is not to be ended (step S19; No), the process proceeds to step S10. If it is determined that the process is to be ended (step S19; Yes), the process of FIG. 3 is ended.
上述のとおり、第1実施形態に係る情報処理装置10は、ユーザUの行動状態を検出し、行動状態に応じた行動パターン情報群を多次元空間に生成する。これにより、第1実施形態に係る情報処理装置10は、行動パターン情報群に基づいて、ユーザUの行動パターンを特定することができる。
As described above, the
[第2実施形態]
次に、第2実施形態について説明する。図6は、第2実施形態に係る情報処理装置の処理の流れの一例を示すフローチャートである。第2実施形態に係る情報処理装置の構成は、図2に示す情報処理装置10と同一の構成なので、説明を省略する。
[Second embodiment]
Next, a second embodiment will be described. Fig. 6 is a flowchart showing an example of a process flow of the information processing device according to the second embodiment. The configuration of the information processing device according to the second embodiment is the same as that of the
第2実施形態では、情報処理装置10は、特定されたユーザUの行動パターンが日常的な日常行動であるか、又は非日常的な非日常行動であるか否かを判定する。
In the second embodiment, the
図7は、日常行動と、非日常行動とを説明するための図である。 Figure 7 is a diagram to explain daily and non-daily behaviors.
図7において、空間SAは、例えば、同一の行動パターンとしてグループ化された範囲を示す。空間SBは、例えば、中心が空間SAと同じあり、体積が空間SAの60%程度である。 In FIG. 7, space SA indicates, for example, a range grouped as having the same behavioral pattern. Space SB, for example, has the same center as space SA and its volume is about 60% of space SA.
第2実施形態では、空間SBに含まれている行動パターン情報は、行動スコアが第1閾値未満の行動パターンである。第2実施形態では、行動スコアが第1閾値未満の行動パターンを日常行動の行動パターンであると判定する。図7に示す例では、空間SB内の点P1に対応する行動パターンが日常行動の行動パターンと判定される。 In the second embodiment, the behavior pattern information included in the space SB is a behavior pattern whose behavior score is less than a first threshold. In the second embodiment, a behavior pattern whose behavior score is less than the first threshold is determined to be a daily behavior pattern. In the example shown in FIG. 7, the behavior pattern corresponding to point P1 in the space SB is determined to be a daily behavior pattern.
第2実施形態では、空間SAと、空間SBとの間の空間に含まれている行動パターンは、行動スコアが第1閾値以上第2閾値未満の行動パターンである。第2実施形態では、行動スコアが第1閾値以上第2閾値未満の行動パターンを非日常行動の行動パターンであると判定する。図7に示す例では、空間SAと、空間SBとの間の空間内の点P2に対応する行動パターンが非日常行動の行動パターンと判定される。 In the second embodiment, the behavior pattern included in the space between space SA and space SB is a behavior pattern with a behavior score equal to or greater than a first threshold and less than a second threshold. In the second embodiment, a behavior pattern with a behavior score equal to or greater than a first threshold and less than a second threshold is determined to be an extraordinary behavior pattern. In the example shown in FIG. 7, the behavior pattern corresponding to point P2 in the space between space SA and space SB is determined to be an extraordinary behavior pattern.
第2実施形態では、空間SAの外側の空間に含まれている行動パターンは、行動スコアが第2閾値以上の行動パターンである。第2実施形態では、行動パターンが第2閾値以上の行動パターンを、対象外としてユーザの行動パターンとして含めない。 In the second embodiment, the behavior patterns included in the space outside the space SA are behavior patterns whose behavior scores are equal to or greater than the second threshold. In the second embodiment, behavior patterns whose behavior scores are equal to or greater than the second threshold are excluded from the user's behavior patterns.
図6に戻る。図ステップS20からステップS23の処理は、図3に示すステップS10からステップS13の処理と同一の処理なので、説明を省略する。 Returning to FIG. 6, the process from step S20 to step S23 in the figure is the same as the process from step S10 to step S13 shown in FIG. 3, so the explanation is omitted.
制御部30は、行動スコアが第1閾値未満であるか否かを判定する(ステップS24)。具体的には、行動パターン特定部46は、ステップS23で行動スコア算出部44が算出した行動スコアが所定の第1閾値未満であるか否かを判定する。第1閾値未満であると判定された場合(ステップS24;Yes)、ステップS25に進む。第1閾値未満でないと判定された場合(ステップS24;No)、ステップS28に進む。
The control unit 30 determines whether the behavior score is less than the first threshold (step S24). Specifically, the behavior
ステップS24でYesと判定された場合、制御部30は、日常行動の行動パターンを特定する(ステップS25)。具体的には、行動パターン特定部46は、行動スコアが所定の第1閾値未満であった行動パターン情報群に対応する行動をユーザUの日常行動の行動パターンであると特定する。
If the answer to step S24 is Yes, the control unit 30 identifies the behavior pattern of daily behavior (step S25). Specifically, the behavior
制御部30は、特定された日常行動の行動パターンの行動状態の種類を識別する(ステップS26)。具体的には、行動パターン特定部46は、行動状態情報取得部40が取得した行動状態情報に基づいて、ユーザUが行った日常行動の行動状態の種類を識別してよい。
The control unit 30 identifies the type of behavioral state of the identified daily behavior pattern (step S26). Specifically, the behavior
制御部30は、日常行動の行動パターンを記憶部28に記憶させる(ステップS27)。具体的には、記憶制御部48は、ステップS25で特定された日常行動の行動パターンを所定のフォーマットで記録する。
The control unit 30 stores the behavior pattern of the daily behavior in the memory unit 28 (step S27). Specifically, the
ステップS24でNoと判定された場合、制御部30は、行動スコアの第1閾値以上第2閾値未満であるか否かを判定する(ステップS28)。具体的には、行動パターン特定部46は、ステップS23で行動スコア算出部44が算出した行動スコアが所定の第1閾値以上第2閾値未満であるか否かを判定する。第1閾値以上第2閾値未満であると判定された場合(ステップS28;Yes)、ステップS29に進む。第1閾値以上第2閾値未満でないと判定された場合(ステップS28;No)、ステップS32に進む。
If step S24 is determined as No, the control unit 30 determines whether the behavior score is equal to or greater than the first threshold and less than the second threshold (step S28). Specifically, the behavior
ステップS28でYesと判定された場合、制御部30は、非日常行動の行動パターンを特定する(ステップS29)。具体的には、行動パターン特定部46は、行動スコアが所定の第1閾値以上第2閾値満であった行動パターン情報群に対応する行動を非日常行動の行動パターンであると判定する。
If step S28 returns Yes, the control unit 30 identifies a behavior pattern of extraordinary behavior (step S29). Specifically, the behavior
制御部30は、特定された非日常行動の行動パターンの行動状態の種類を識別する(ステップS30)。具体的には、行動パターン特定部46は、行動状態情報取得部40が取得した行動状態情報に基づいて、ユーザUが行った非日常行動の行動状態の種類を識別してよい。
The control unit 30 identifies the type of behavioral state of the identified behavior pattern of the non-daily behavior (step S30). Specifically, the behavior
制御部30は、非日常行動の行動パターンを記憶部28に記憶させる(ステップS31)。具体的には、記憶制御部48は、ステップS29で特定された非日常行動の行動パターンを所定のフォーマットで記録する。
The control unit 30 stores the behavior pattern of the extraordinary behavior in the memory unit 28 (step S31). Specifically, the
ステップS32及びステップ33の処理は、ぞれぞれ、図3に示すステップS18及びステップS19の処理と同一の処理なので、説明を省略する。 The processes in steps S32 and S33 are the same as those in steps S18 and S19 shown in FIG. 3, and therefore will not be described here.
上述のとおり、第2実施形態に係る情報処理装置10は、行動スコアに基づいて、行動パターンが日常行動であるか、非日常行動であるかを判定する。これにより、第2実施形態に係る情報処理装置10は、同じ行動においても日常のルーチンであるのか、新しい行動であるのかを判定することができる。
As described above, the
具体的には、第2実施形態における、日常行動および非日常行動の識別は、例えば、平日の通勤時間に発生した行動パターンは、ルーチンによる行動なのか、または意図的にその行動パターンを行ったかなどの興味の有無の判断に使用することができる。例えば、毎日決まった時刻にある駅から別の駅まで通勤している場合、駅に向かって歩く行動は同じ時刻であればルーチンであり、興味を持って起こした能動的な行動ではないとして、統計上その行動パターンのデータを無視して計算するなどすることができる。 Specifically, in the second embodiment, the discrimination between daily and non-daily behaviors can be used to determine whether a behavior pattern that occurs during commuting time on a weekday is a routine behavior or whether the behavior pattern was performed intentionally, and thus whether there is interest. For example, if a person commutes from one station to another at a fixed time every day, walking to the station at the same time is considered to be routine and not an active behavior that is performed out of interest, and the data for that behavior pattern can be ignored in statistical calculations.
[第3実施形態]
次に、図8を用いて、第3実施形態に係る情報処理装置について説明する。図8は、第3実施形態に係る情報処理装置の構成例を示すブロック図である。
[Third embodiment]
Next, an information processing apparatus according to a third embodiment will be described with reference to Fig. 8. Fig. 8 is a block diagram showing an example of the configuration of the information processing apparatus according to the third embodiment.
図8に示すように、情報処理装置10aは、生体センサ32を備える点と、制御部30aが生体情報取得部52及び活性度スコア算出部54を備える点で、図2に示す情報処理装置10とは異なる。
As shown in FIG. 8, the information processing device 10a differs from the
ユーザUの行動には、物理的な動きと共に、興奮度合いなどの生体情報が伴う。そのため、ユーザUの行動パターンを特定する際には、その行動時のユーザUの心理的な状況を考慮することが好ましい。情報処理装置10aは、ユーザUが行動を楽しんでいる度合いを示す活性度スコアを算出する。 The behavior of user U is accompanied by physical movements as well as biological information such as the degree of excitement. Therefore, when identifying the behavioral pattern of user U, it is preferable to take into account the psychological state of user U at the time of the behavior. The information processing device 10a calculates an activity score that indicates the degree to which user U is enjoying the behavior.
生体センサ32は、ユーザUの生体情報を検出するセンサである。生体センサ32は、ユーザUの生体情報を検出可能であれば、任意の位置に設けられてよい。ここでの生体情報は、指紋など不変のものではなく、例えばユーザUの状態に応じて値が変化する情報であることが好ましい。さらに言えば、ここでの生体情報は、ユーザUの自律神経に関する情報、すなわちユーザUの意思にかかわらず値が変化する情報であることが好ましい。具体的には、生体センサ32は、脈波センサ32Aを含み、生体情報として、ユーザUの脈波を検出する。生体センサ32は、ユーザUの脳波を検出する脳波センサを含んでもよい。
The biosensor 32 is a sensor that detects biometric information of the user U. The biosensor 32 may be provided at any position as long as it is capable of detecting the biometric information of the user U. The biometric information here is preferably not unchanging, such as a fingerprint, but information whose value changes depending on the state of the user U, for example. Furthermore, the biometric information here is preferably information relating to the autonomic nerves of the user U, that is, information whose value changes regardless of the will of the user U. Specifically, the biosensor 32 includes a
脈波センサ32Aは、ユーザUの脈波を検出するセンサである。脈波センサ32Aは、例えば、発光部と受光部とを備える透過型光電方式のセンサであってよい。この場合、脈波センサ32Aは、例えば、ユーザUの指先を挟んで発光部と受光部とが対峙する構成となっており、指先を透過してきた光を受光部が受光し、脈波の圧力が大きいほど血流が大きくなることを利用して、脈の波形を計測するものであってよい。ただし、脈波センサ32Aは、それに限られず、脈波を検出可能な任意の方式のものであってよい。
生体情報取得部52は、生体センサ32を制御して、生体センサ32に生体情報を検出させる。生体情報取得部52は、生体センサ32が検出した生体情報を取得する。
The biometric
活性度スコア算出部54は、生体情報が取得した生体情報に基づいて、自律神経活性度を算出する。自律神経活性度を算出する方法については、後述する。活性度スコア算出部54は、活性度スコアを算出する。活性度スコア算出部54は、行動スコア算出部44が算出した行動スコアと、行動パターン特定部46が特定した行動パターンと、自律神経活性度に基づいて、活性度スコアを算出する。
The activity
[処理内容]
図9を用いて、第3実施形態に係る情報処理装置10aの処理内容について説明する。図9は、第3実施形態に係る情報処理装置10aの処理の流れの一例を示すフローチャートである。
[Processing content]
The process contents of the information processing device 10a according to the third embodiment will be described with reference to Fig. 9. Fig. 9 is a flowchart showing an example of the process flow of the information processing device 10a according to the third embodiment.
ステップS40の処理は、図3に示すステップS10と同一の処理なので、説明を省略する。 The process of step S40 is the same as step S10 shown in FIG. 3, so the explanation is omitted.
制御部30aは、ユーザUの生体情報を取得する(ステップS41)。具体的には、生体情報取得部52は、生体センサ32の脈波センサ32Aを制御して、ユーザUの脈波情報を取得する。本実施形態では、後述するように、ユーザUの脈波情報を用いて、ユーザUの心理面におけるストレス度、リラックス度、興味度、および集中度の度合いを示す指針となる自律神経活性度を算出する。
The control unit 30a acquires biometric information of the user U (step S41). Specifically, the biometric
ステップS42からステップS47の処理は、それぞれ、図3に示すステップS11からステップS17の処理と同一の処理なので、説明を省略する。 The processes from step S42 to step S47 are the same as the processes from step S11 to step S17 shown in FIG. 3, so their explanations are omitted.
制御部30aは、活性度スコアを算出する(ステップS48)。具体的には、活性度スコア算出部54は、ステップS41で取得された脈波情報に基づいて、ユーザUの活性度スコアを算出する。
The control unit 30a calculates the activity score (step S48). Specifically, the activity
図10を用いて、脈波について説明する。図10は、脈波の一例を示すグラフである。図10に示すように、脈波は、所定時間毎にR波WRと呼ばれるピークが現れる波形となる。脈の拍動は、心臓の洞結節にあるペースメーカ細胞の自然発火で生じする。脈拍のリズムは、交感神経と副交感神経の両方の影響を強く受けている。交感神経は、心臓活動を促進させる。副交感神経は、心臓活動を抑制させる。通常、交感神経と、副交感神経とは拮抗して作用する。安静時又はそれに近い状態では、副交感神経が支配的となる。通常、脈拍数は、交感神経の興奮によってアドレナリンが分泌されると増加し、副交感神経の興奮によってアセチルコリンが分泌されると減少する。したがって、自律神経の機能検査は、心電図におけるR-R間隔の変動調べることが有用であるとされている。これは、藤本等の「心電図R-R間隔の変動を用いた自律神経機能検査の正常参考値および標準予測式」(自律神経,30巻2号,1987年,167-173頁)及び早野等の「心拍変動と自律神経機能」(生物物理,28-4,P32-36,1988)に記載されている。R-R間隔とは、図10に示すように、時系列で連続するR波WR同士の間隔である。心拍変動は、信号波形のQPS波の頂点であるR波を脈の1発として測定される。心電図のR波の間隔の変動、つまり図10のR波間を示すR-R間隔の時間間隔の揺らぎが、自律神経指標として用いられている。自律神経指標としてR-R間隔の時間間隔の揺らぎを用いることの妥当性は、多くの医療機関で報告されている。R-R間隔のゆらぎは、安静時に大きくなり、ストレス時には小さくなる。 The pulse wave will be explained using FIG. 10. FIG. 10 is a graph showing an example of a pulse wave. As shown in FIG. 10, the pulse wave has a waveform in which a peak called an R wave WR appears at a predetermined time interval. Pulse pulsation occurs due to spontaneous firing of pacemaker cells in the sinus node of the heart. The pulse rhythm is strongly influenced by both the sympathetic and parasympathetic nerves. The sympathetic nerves promote cardiac activity. The parasympathetic nerves suppress cardiac activity. Normally, the sympathetic nerves and the parasympathetic nerves act in opposition to each other. At rest or in a state close to rest, the parasympathetic nerves dominate. Normally, the pulse rate increases when adrenaline is secreted due to sympathetic nerve stimulation, and decreases when acetylcholine is secreted due to parasympathetic nerve stimulation. Therefore, it is considered useful to examine the fluctuation of the R-R interval in the electrocardiogram in an autonomic nerve function test. This is described in Fujimoto et al.'s "Normal Reference Values and Standard Prediction Formulas for Autonomic Nerve Function Tests Using Fluctuations in Electrocardiogram R-R Intervals" (Autonomic Nerves, Vol. 30, No. 2, 1987, pp. 167-173) and Hayano et al.'s "Heart Rate Fluctuations and Autonomic Nerve Function" (Biophysics, 28-4, pp. 32-36, 1988). The R-R interval is the interval between consecutive R waves WR in a time series, as shown in FIG. 10. Heart rate fluctuations are measured by treating the R wave, which is the peak of the QPS wave in the signal waveform, as one pulse. Fluctuations in the intervals between R waves in an electrocardiogram, that is, the fluctuations in the time intervals of the R-R intervals between R waves in FIG. 10, are used as an autonomic nerve index. The validity of using the fluctuations in the time intervals of the R-R intervals as an autonomic nerve index has been reported by many medical institutions. The fluctuations in the R-R intervals are large when at rest and small when under stress.
R-R間隔の変動には、いくつかの特徴的な揺らぎある。1つは0.1Hz付近に出現する低周波成分であり、血管の血圧のフィードバック調節に伴う交感神経系活動の変調に由来する。もう1つは呼吸に同調した変調であり、呼吸性洞性不整脈を反映する高周波成分である。高周波成分は、呼吸中枢による迷走神経前節ニューロンへの直接干渉と肺の伸展受容体および呼吸による血圧変化の反受容体反射を反映し、主に心臓に影響する副交感神経指標とされている。すなわち、脈波のR-R波間の揺らぎを測定した波形成分のうち、低周波成分のパワースペクトルは交感神経の活性度を示し、高周波成分のパワースペクトルは副交感神経の活性度を示しているといえる。 There are several characteristic fluctuations in the R-R interval. One is a low-frequency component that appears around 0.1 Hz, which originates from the modulation of sympathetic nervous activity accompanying feedback regulation of vascular blood pressure. The other is a high-frequency component that is a modulation synchronized with breathing and reflects respiratory sinus arrhythmia. The high-frequency component reflects direct interference with the preganglionic neurons of the vagus nerve by the respiratory center and the antireceptor reflex of pulmonary stretch receptors and blood pressure changes due to breathing, and is considered to be a parasympathetic nerve index that mainly affects the heart. In other words, among the waveform components that measure the fluctuation between the R-R waves of the pulse wave, the power spectrum of the low-frequency component indicates the activity of the sympathetic nerve, and the power spectrum of the high-frequency component indicates the activity of the parasympathetic nerve.
入力される脈波の揺らぎは、R-R間隔値の微分値で求められる。この場合、R-R間隔の微分値が時間的に等間隔のデータでない場合、活性度スコア算出部54は、三次元スプライン補間などを用いて等間隔な時系列データに変換する。活性度スコア算出部54は、R-R間隔の微分値を、高速フーリエ変換などで直交変換を行う。これにより、活性度スコア算出部54は、脈波のR-R間隔値の微分値の高周波成分のパワースペクトルと、低周波成分のパワースペクトルを算出する。活性度スコア算出部54は、高周波成分のパワースペクトルの総和をRRHFとして算出する。活性度スコア算出部54は、低周波成分のパワースペクトルの総和のRRLFとして算出する。活性度スコア算出部54は、式(1)を用いて、自律神経活性度を算出する。活性度スコア算出部54は、自律神経活性度算出部と呼ばれることもある。
The fluctuation of the input pulse wave is found by the differential value of the R-R interval value. In this case, if the differential value of the R-R interval is not data with equal intervals in time, the activity
式(1)において、ANは自律神経活性度、RRHFは高周波成分のパワースペクトルの総和、RRLFは低周波成分の低周波成分のパワースペクトルの総和である。C1及びC2は、ANの解の発散を抑えるために規定した固定値である。 In equation (1), AN is the autonomic nerve activity, RRHF is the sum of the power spectrum of the high frequency components, and RRLF is the sum of the power spectrum of the low frequency components. C1 and C2 are fixed values defined to suppress divergence of the AN solution.
活性度スコア算出部54は、式(2)を用いて、活性度スコアを算出する。
The activity
式(2)において、NSは活性度スコア、APは行動パターン、Rは行動スコア、ANは自律神経活性度である。すなわち、活性度スコア算出部54は、行動パターンと、行動スコアと、自律神経活性度とをパラメータとして含む関数を用いて、活性度スコアを算出してもよい。
In formula (2), NS is the activity score, AP is the behavior pattern, R is the behavior score, and AN is the autonomic nerve activity level. That is, the activity
また、活性度スコア算出部54は、例えば、学習モデルを用いて、活性度スコアを算出してもよい。学習モデルは、行動パターンと、行動スコアと、自律神経活性度と、活性度スコアとを1つのデータセットとし、複数のデータセットを教師データとして学習して構築されたAIモデルである。この場合、活性度スコア算出部54は、学習済みの学習モデルに行動パターンと、行動スコアと、自律神経活性度とを入力して、活性度スコアを示す
情報を取得して、活性度スコアを算出する。
The activity
制御部30は、ユーザUに対して活性度スコアを提示する(ステップS49)。具体的には、出力制御部50は、表示部24A及び音声出力部24Bの少なくとも一方を制御して、ユーザUに対して活性度スコアを提示する。
The control unit 30 presents the activity score to the user U (step S49). Specifically, the output control unit 50 controls at least one of the
制御部30は、行動パターンと活性スコアを記憶部28に記憶させる(ステップS50)。具体的には、記憶制御部48は、ステップS46で特定された行動パターンと活性度スコアとを所定のフォーマットで記録する。
The control unit 30 stores the behavior pattern and activity score in the memory unit 28 (step S50). Specifically, the
図11は、行動パターンを記憶するフォーマットを説明するための図である。図11に示すように、記憶フォーマットF2は、領域D1aと、領域D2aと、領域D3aと、領域D4aと、領域D5aと、領域D6aとを、含み得る。 Figure 11 is a diagram for explaining the format for storing behavioral patterns. As shown in Figure 11, storage format F2 may include areas D1a, D2a, D3a, D4a, D5a, and D6a.
領域D1aは、特定された行動パターンをナンバリングされた数値が記憶される。領域D1aは、例えば、3バイトで構成される。領域D2aには、行動パターン情報を群としてプロットした空間の次元数が記憶される。領域D2aは、例えば、1バイトで構成される。領域D3aには、ユーザUの行動パターンであると判定された、行動パターン情報群の行動スコアRが記憶される。領域D4aには、自律神経活性度が記憶される。領域D4aは、例えば、2バイトで構成される。領域D5aには、活性度スコアが記憶される。領域D5は、例えば、2バイトで構成されている。領域D6aは、リザーブ領域である。 Area D1a stores a numbered value for the identified behavior pattern. Area D1a may be composed of, for example, 3 bytes. Area D2a stores the number of dimensions of the space in which the behavior pattern information is plotted as a group. Area D2a may be composed of, for example, 1 byte. Area D3a stores the behavior score R of the behavior pattern information group determined to be the behavior pattern of user U. Area D4a stores the autonomic nerve activity level. Area D4a may be composed of, for example, 2 bytes. Area D5a stores the activity level score. Area D5 may be composed of, for example, 2 bytes. Area D6a is a reserved area.
ステップS51及びステップS52の処理は、それぞれ、図3に示すステップS18及びステップS19の処理と同一の処理なので説明を省略する。 The processes in steps S51 and S52 are the same as those in steps S18 and S19 shown in FIG. 3, and therefore will not be described here.
上述のとおり、第3実施形態に係る情報処理装置10aは、ユーザUの行動パターンとして特定された行動を行っていた際の、ユーザがその行動を楽しんでいた度合いを示す活性度スコアを算出することができる。これにより、第3実施形態に係る情報処理装置10aは、ユーザUの行動パターンをより適切に特定することができる。 As described above, the information processing device 10a according to the third embodiment can calculate an activity score that indicates the degree to which the user enjoyed an action identified as the user U's behavior pattern when the user was performing that action. This allows the information processing device 10a according to the third embodiment to more appropriately identify the behavior pattern of the user U.
[第4実施形態]
次に、図12を用いて、第4実施形態に係る情報処理装置について説明する。図12は、第4実施形態に係る情報処理装置の構成例を示すブロック図である。
[Fourth embodiment]
Next, an information processing apparatus according to a fourth embodiment will be described with reference to Fig. 12. Fig. 12 is a block diagram showing an example of the configuration of the information processing apparatus according to the fourth embodiment.
図12に示すように、情報処理装置10bは、記憶部28aが補正データ28Cを記憶している点と、制御部30bが活性度スコア補正部56を備える点で、図8に示す情報処理装置10aとは異なる。
As shown in FIG. 12, the information processing device 10b differs from the information processing device 10a shown in FIG. 8 in that the
国又は地域などが変われば、同じ行動パターンであっても感性などの違いにより感じ方に違いが生じることもあり得る。情報処理装置10bは、国又は地域に応じて、活性度スコアを補正する。 When the country or region changes, the same behavioral pattern may be perceived differently due to differences in sensibility, etc. The information processing device 10b corrects the activity score depending on the country or region.
補正データ28Cは、活性度スコア補正部56が活性度スコアを補正する際に用いるデータである。補正データ28Cは、例えば、行動パターンと、国又は地域などに応じて活性度スコアに乗算する補正係数とが対応付けられているデータである。
The
図13は、補正データの一例を説明するための図である。図13には、行動パターンとして、行動パターンMP1と、行動パターンMP2と、行動パターンMP3とが示されている。また、国又は地域として、エリアA1と、エリアA2と、エリアA3とが示されている。図13では、行動パターンは、行動パターンMP1などのように概念的に示しているが、実施には、「ゴルフをする」などにように具体的に示される。また、国又は地域は、エリアA1などのように概念的に示しているが、実際には、日本などの具体的な国名や、東京などの具体的な地域名が示される。 Figure 13 is a diagram for explaining an example of correction data. Figure 13 shows action patterns MP1, MP2, and MP3 as action patterns. Also, areas A1, A2, and A3 are shown as countries or regions. In Figure 13, action patterns are shown conceptually, such as action pattern MP1, but in practice they are shown specifically, such as "playing golf." Also, countries or regions are shown conceptually, such as area A1, but in practice they are shown as specific country names, such as Japan, or specific region names, such as Tokyo.
図13に示すように、エリアA1では、行動パターンMP1の活性度スコアには0.5を乗じ、行動パターンMP2の活性度スコアには0.2を乗じ、行動パターンMP3の活性度スコアには0.1を乗じる。エリアA2では、行動パターンMP1の活性度スコアには0.2を乗じ、行動パターンMP2の活性度スコアには0.6を乗じ、行動パターンMP3の活性度スコアには0.9を乗じる。エリアA3では、行動パターンMP1の活性度スコアには0.3を乗じ、行動パターンMP2の活性度スコアには0.7を乗じ、行動パターンMP3の活性度スコアには0.5を乗じる。図13に示すように、国又は地域が異なれば、行動パターンが同じであっても、活性度スコアに乗じる補正係数は変化し得る。補正係数は、各国又は地域ごとに予め想定し得る行動パターンについてアンケート調査を行うことで生成される。なお、図13では、エリアA1からエリアA3のように地域ごとに補正係数を分類しているが、地域以外の所定の条件で、補正係数を分類してもよい。例えば、対象とする行動パターンの種類によっては、年齢や性別などで補正係数を分類してもよい。 As shown in FIG. 13, in area A1, the activity score of behavior pattern MP1 is multiplied by 0.5, the activity score of behavior pattern MP2 is multiplied by 0.2, and the activity score of behavior pattern MP3 is multiplied by 0.1. In area A2, the activity score of behavior pattern MP1 is multiplied by 0.2, the activity score of behavior pattern MP2 is multiplied by 0.6, and the activity score of behavior pattern MP3 is multiplied by 0.9. In area A3, the activity score of behavior pattern MP1 is multiplied by 0.3, the activity score of behavior pattern MP2 is multiplied by 0.7, and the activity score of behavior pattern MP3 is multiplied by 0.5. As shown in FIG. 13, if the country or region is different, the correction coefficient multiplied by the activity score may change even if the behavior pattern is the same. The correction coefficient is generated by conducting a questionnaire survey on possible behavior patterns for each country or region. In FIG. 13, the correction coefficients are classified by area, such as area A1 to area A3, but the correction coefficients may be classified by a predetermined condition other than area. For example, depending on the type of behavioral pattern to be targeted, the correction coefficients may be classified by age, gender, or the like.
活性度スコア補正部56は、活性度スコア算出部54が算出した活性度スコアを補正する。具体的には、活性度スコア補正部56は、行動パターンが特定された国又は地域に基づいて、補正データ28Cを用いて、活性度スコアを補正する。
The activity
[処理内容]
図14を用いて、第4実施形態に係る情報処理装置10bの処理内容について説明する。図14は、第4実施形態に係る情報処理装置10bの処理の流れの一例を示すフローチャートである。
[Processing content]
The process of the information processing device 10b according to the fourth embodiment will be described with reference to Fig. 14. Fig. 14 is a flowchart showing an example of the process flow of the information processing device 10b according to the fourth embodiment.
ステップS60からステップS68の処理は、それぞれ、図9に示すステップS40からステップS48の処理と同一の処理なので、説明を省略する。 The processes from step S60 to step S68 are the same as the processes from step S40 to step S48 shown in FIG. 9, so their explanations are omitted.
制御部30bは、活性度スコアを補正する(ステップS69)。具体的には、活性度スコア補正部56は、行動パターン特定部46によって特定された位置情報に基づいて、補正データ28Cを用いて、活性度スコア算出部54が算出した活性度スコアを補正する。
The control unit 30b corrects the activity score (step S69). Specifically, the activity
制御部30bは、ユーザUに対して補正後の活性度スコアを提示する(ステップS70)。具体的には、出力制御部50は、表示部24A及び音声出力部24Bの少なくとも一方を制御して、ユーザUに対して補正後の活性度スコアを提示する。
The control unit 30b presents the corrected activity score to the user U (step S70). Specifically, the output control unit 50 controls at least one of the
制御部30bは、行動パターンと補正後の活性スコアを記憶部28に記憶させる(ステップS71)。具体的には、記憶制御部48は、ステップS66で特定された行動パターンと補正後の活性度スコアとを所定のフォーマットで記録する。
The control unit 30b stores the behavior pattern and the corrected activity score in the memory unit 28 (step S71). Specifically, the
ステップS72及びステップS73の処理は、それぞれ、図9に示すステップS51及びステップS52の処理と同一の処理なので、説明を省略する。 The processing in steps S72 and S73 is the same as the processing in steps S51 and S52 shown in FIG. 9, and therefore will not be described.
上述のとおり、第4実施形態に係る情報処理装置10bは、国又は地域に応じて活性度スコアに補正係数を乗ずることにより、活性度スコアを補正する。これにより、第4実施形態に係る情報処理装置10bは、国又は地域に応じてより適切に活性度スコアを補正することができる。 As described above, the information processing device 10b according to the fourth embodiment corrects the activity score by multiplying the activity score by a correction coefficient depending on the country or region. This allows the information processing device 10b according to the fourth embodiment to more appropriately correct the activity score depending on the country or region.
[第4実施形態の変形例]
次に、第4実施形態の変形例について説明する。第4実施形態では、図13に示すように、行動パターンとエリアとが対応付けられた補正データ28Cを用いて、活性度スコアを補正する。しかしながら、補正データには、行動パターンが対応付けられていなくてもよい。すなわち、エリアごとに専用の補正係数が定められていてもよい。この場合、活性度スコア補正部56は、活性度スコア算出部54が算出した自律神経活性度を補正データに基づいて補正するようにすればよい。この場合、活性度スコア補正部56は、自律神経活性度補正部とも呼ばれ得る。
[Modification of the fourth embodiment]
Next, a modified example of the fourth embodiment will be described. In the fourth embodiment, as shown in FIG. 13, the activity score is corrected using
図15は、補正データの一例を説明するための図である。図15に示すように、補正データ28Caには、エリアごとに補正係数が定められている。図15に示す例では、エリアA1の補正係数は0.5、エリアA2の補正係数は0.2、及びエリアA3の補正係数は0.3である。 Figure 15 is a diagram illustrating an example of correction data. As shown in Figure 15, in the correction data 28Ca, a correction coefficient is defined for each area. In the example shown in Figure 15, the correction coefficient for area A1 is 0.5, the correction coefficient for area A2 is 0.2, and the correction coefficient for area A3 is 0.3.
活性度スコア補正部56は、例えば、ユーザUの自律神経活性度が算出された地域がエリアA1であると判定された場合、算出された自律神経活性度に0.5を乗ずることで、自律神経の活性度を補正する。これにより、第4実施形態の変形例では、各地域に応じて自律神経の活性度をより適切に算出することができる。
For example, when it is determined that the area in which the autonomic nerve activity of user U is calculated is area A1, the activity
[第5実施形態]
次に、第5実施形態について説明する。図16は、第5実施形態に係る情報処理装置の処理の流れの一例を示すフローチャートである。第5実施形態に係る情報処理装置の構成は、図2に示す情報処理装置10bと同一の構成なので、説明を省略する。
[Fifth embodiment]
Next, a fifth embodiment will be described. Fig. 16 is a flowchart showing an example of a process flow of the information processing device according to the fifth embodiment. The configuration of the information processing device according to the fifth embodiment is the same as that of the information processing device 10b shown in Fig. 2, and therefore the description will be omitted.
第5実施形態では、情報処理装置10bは、特定されたユーザUの日常行動の行動パターンと、非日常行動の行動パターンについて、それぞれ独立に活性度スコアを算出する。また、第5実施形態では、情報処理装置10bは、算出されたユーザUの日常行動の行動パターンの活性度スコアと、非日常行動の行動パターンの活性度スコアについて、それぞれ独立に補正する。 In the fifth embodiment, the information processing device 10b calculates an activity score independently for the identified daily behavior pattern and non-daily behavior pattern of the user U. Also, in the fifth embodiment, the information processing device 10b independently corrects the calculated activity score for the daily behavior pattern and the non-daily behavior pattern of the user U.
ステップS80からステップS84の処理は、それぞれ、図9に示すステップS40からステップS44の処理と同一の処理なので、説明を省略する。 The processes from step S80 to step S84 are the same as the processes from step S40 to step S44 shown in FIG. 9, so their explanations are omitted.
ステップS85からステップS87の処理は、ぞれぞれ、図6に示すステップS24からステップS26の処理と同一の処理なので、説明を省略する。 The processes from step S85 to step S87 are the same as the processes from step S24 to step S26 shown in FIG. 6, so their explanation will be omitted.
制御部30bは、日常行動の行動パターンの活性度スコアを算出する(ステップS88)。具体的には、活性度スコア算出部54は、ステップS81で取得された脈波情報に基づいて、ユーザUの日常行動の行動パターンの活性度スコアを算出する。
The control unit 30b calculates the activity score of the behavior pattern of daily behavior (step S88). Specifically, the activity
制御部30bは、日常行動の行動パターンの活性度スコアを補正する(ステップS89)。具体的には、活性度スコア補正部56は、行動パターン特定部46によって特定された位置情報に基づいて、補正データ28Cを用いて、活性度スコア算出部54が算出した日常行動の行動パターンの活性度スコアを補正する。
The control unit 30b corrects the activity score of the behavior pattern of daily behavior (step S89). Specifically, the activity
制御部30bは、ユーザUに対して補正後の日常行動の行動パターンの活性度スコアを提示する(ステップS90)。具体的には、出力制御部50は、表示部24A及び音声出力部24Bの少なくとも一方を制御して、ユーザUに対して補正後の活性度スコアを提示する。
The control unit 30b presents the activity score of the daily activity pattern after the correction to the user U (step S90). Specifically, the output control unit 50 controls at least one of the
制御部30bは、日常行動の行動パターンと補正後の活性スコアを記憶部28に記憶させる(ステップS91)。具体的には、記憶制御部48は、ステップS66で特定された日常行動の行動パターンと補正後の活性度スコアとを所定のフォーマットで記録する。
The control unit 30b stores the daily behavior pattern and the corrected activity score in the memory unit 28 (step S91). Specifically, the
ステップS85でNoと判定された場合、ステップS92に進む。ステップS92からステップS94の処理は、それぞれ、図6に示すステップS28からステップS30の処理と同一の処理なので、説明を省略する。 If step S85 returns No, the process proceeds to step S92. Steps S92 to S94 are the same as steps S28 to S30 shown in FIG. 6, and therefore will not be described here.
制御部30bは、非日常行動の行動パターンの活性度スコアを算出する(ステップS95)。具体的には、活性度スコア算出部54は、ステップS81で取得された脈波情報に基づいて、ユーザUの非日常行動の行動パターンの活性度スコアを算出する。
The control unit 30b calculates the activity score of the behavior pattern of non-daily behavior (step S95). Specifically, the activity
制御部30bは、非日常行動の行動パターンの活性度スコアを補正する(ステップS96)。具体的には、活性度スコア補正部56は、行動パターン特定部46によって特定された位置情報に基づいて、補正データ28Cを用いて、活性度スコア算出部54が算出した非日常行動の行動パターンの活性度スコアを補正する。
The control unit 30b corrects the activity score of the behavior pattern of non-daily behavior (step S96). Specifically, the activity
制御部30bは、ユーザUに対して補正後の非日常行動の行動パターンの活性度スコアを提示する(ステップS97)。具体的には、出力制御部50は、表示部24A及び音声出力部24Bの少なくとも一方を制御して、ユーザUに対して補正後の活性度スコアを提示する。
The control unit 30b presents the corrected activity score of the behavior pattern of the non-daily behavior to the user U (step S97). Specifically, the output control unit 50 controls at least one of the
制御部30bは、非日常行動の行動パターンと補正後の活性スコアを記憶部28に記憶させる(ステップS98)。具体的には、記憶制御部48は、ステップS66で特定された非日常行動の行動パターンと補正後の活性度スコアとを所定のフォーマットで記録する。
The control unit 30b stores the behavior pattern of the extraordinary behavior and the corrected activity score in the memory unit 28 (step S98). Specifically, the
ステップS99及びステップS100の処理は、それぞれ、図9に示すステップS51及びステップS52の処理と同一の処理なので、説明を省略する。 The processes in steps S99 and S100 are the same as those in steps S51 and S52 shown in FIG. 9, and therefore will not be described here.
上述のとおり、第5実施形態に係る情報処理装置10bは、日常行動の行動パターンと、非日常行動の行動パターンとして特定された行動を行っていた際の活性度スコアをそれぞれ独立に算出することができる。これにより、第3実施形態に係る情報処理装置10aは、ユーザUの行動パターンをより適切に特定することができる。 As described above, the information processing device 10b according to the fifth embodiment can independently calculate the activity score when the user is performing a behavior pattern identified as a daily behavior and a non-daily behavior. This allows the information processing device 10a according to the third embodiment to more appropriately identify the behavior pattern of the user U.
また、第5実施形態に係る情報処理装置10bは、国又は地域に応じて活性度スコアに補正係数を乗ずることにより、日常行動の行動パターンの活性度スコアと、非日常行動の行動パターンの活性度スコアを補正する。これにより、第5実施形態に係る情報処理装置10bは、国又は地域に応じてより適切に活性度スコアを補正することができる。 In addition, the information processing device 10b according to the fifth embodiment corrects the activity scores of the behavior patterns of daily behavior and the activity scores of the behavior patterns of non-daily behavior by multiplying the activity scores by a correction coefficient depending on the country or region. This allows the information processing device 10b according to the fifth embodiment to more appropriately correct the activity scores depending on the country or region.
[第6実施形態]
次に、図17を用いて、第6実施形態に係る情報処理装置について説明する。図17は、第6実施形態に係る情報処理装置の構成例を示すブロック図である。
Sixth Embodiment
Next, an information processing device according to a sixth embodiment will be described with reference to Fig. 17. Fig. 17 is a block diagram showing an example of the configuration of the information processing device according to the sixth embodiment.
図17に示すように、情報処理装置10cは、記憶部28bが履歴データ28Dを記憶している点と、制御部30cが履歴データ取得部58と、学習部60とを備える点で、図8に示す情報処理装置10aとは異なる。
As shown in FIG. 17, the
趣味や趣向はユーザごとに異なることがあるため、同じ行動を行っている場合でも、活性度スコアの値は、ユーザごとに異なることもあり得る。第6実施形態に係る情報処理装置10cは、ユーザごとにカスタマイズされた学習済みモデルを用いて、活性スコアを算出する。
Since hobbies and interests may differ from user to user, the activity score value may differ from user to user even when the same behavior is being performed. The
履歴データ28Dは、活性度スコアの履歴に関するデータである。履歴データ28Dは、ユーザごとに所定期間における、活性度スコアの順位に関する情報を含み得る。具体的には、履歴データ28Dは、所定期間における活性度スコアが所定よりも高い行動パターンの情報を含み得る。所定期間は、例えば、3カ月であるが、これに限定されない。
図18Aから図18Cは、履歴データ28Dの一例を説明するための図である。図18Aから図18Cに示すように、履歴データ28Dにおいては、順位と、行動パターンと、行動スコアと、活性度スコアとが対応付けられている。図18Aは、ユーザU1の履歴データの一例である。図18Bは、ユーザU2の履歴データの一例である。図18Cは、ユーザU3の履歴データの一例である。図18Aから図18Cには、それぞれ、ユーザU1からユーザU3の所定期間における活性度スコアが高かった行動パターンの1位から5位までが示されている。
Figures 18A to 18C are diagrams illustrating an example of
図18Aに示すように、ユーザU1の1位は、行動スコアが10、活性度スコアが99の行動パターンMP4である。ユーザU1の2位は、行動スコアが9、活性度スコアが85の行動パターンMP3である。ユーザU1の3位は、行動スコアが8、活性度スコアが80の行動パターンMP1である。ユーザU1の4位は、行動スコアが7、活性度スコアが58の行動パターンMP9である。ユーザU1の5位は、行動スコアが7、活性度スコアが53の行動パターンMP3である。 As shown in FIG. 18A, user U1's first place is behavior pattern MP4 with a behavior score of 10 and an activity score of 99. User U1's second place is behavior pattern MP3 with a behavior score of 9 and an activity score of 85. User U1's third place is behavior pattern MP1 with a behavior score of 8 and an activity score of 80. User U1's fourth place is behavior pattern MP9 with a behavior score of 7 and an activity score of 58. User U1's fifth place is behavior pattern MP3 with a behavior score of 7 and an activity score of 53.
図18Bに示すように、ユーザU2の1位は、行動スコアが8、活性度スコアが90の行動パターンMP4である。ユーザU2の2位は、行動スコアが7、活性度スコアが88の行動パターンMP3である。ユーザU2の3位は、行動スコアが8、活性度スコアが79の行動パターンMP1である。ユーザU2の4位は、行動スコアが9、活性度スコアが51の行動パターンMP8である。ユーザU2の5位は、行動スコアが9、活性度スコアが49の行動パターンMP3である。 As shown in FIG. 18B, the first place for user U2 is behavior pattern MP4 with a behavior score of 8 and an activity score of 90. The second place for user U2 is behavior pattern MP3 with a behavior score of 7 and an activity score of 88. The third place for user U2 is behavior pattern MP1 with a behavior score of 8 and an activity score of 79. The fourth place for user U2 is behavior pattern MP8 with a behavior score of 9 and an activity score of 51. The fifth place for user U2 is behavior pattern MP3 with a behavior score of 9 and an activity score of 49.
図18Cに示すように、ユーザU3の1位は、行動スコアが10、活性度スコアが89の行動パターンMP7である。ユーザU3の2位は、行動スコアが6、活性度スコアが71の行動パターンMP2である。ユーザU3の3位は、行動スコアが7、活性度スコアが68の行動パターンMP9である。ユーザU3の4位は、行動スコアが8、活性度スコアが65の行動パターンMP4である。ユーザU3の5位は、行動スコアが9、活性度スコアが57の行動パターンMP3である。 As shown in FIG. 18C, user U3's first place is behavior pattern MP7 with a behavior score of 10 and an activity score of 89. User U3's second place is behavior pattern MP2 with a behavior score of 6 and an activity score of 71. User U3's third place is behavior pattern MP9 with a behavior score of 7 and an activity score of 68. User U3's fourth place is behavior pattern MP4 with a behavior score of 8 and an activity score of 65. User U3's fifth place is behavior pattern MP3 with a behavior score of 9 and an activity score of 57.
図18Aから図18Cに示すように、同じ行動パターンであってもユーザに応じて活性度スコアの高い行動パターンは異なり、活性度スコアには個人差が存在する。 As shown in Figures 18A to 18C, even for the same behavior pattern, the behavior pattern with a high activity score varies depending on the user, and there are individual differences in activity scores.
履歴データ取得部58は、記憶部28cから履歴データ28Dを取得する。具体的には、履歴データ取得部58は、活性度スコアの算出対象となるユーザの履歴データ28Dを取得する。
The history
学習部60は、学習用データに基づいて、機械学習による学習によりユーザの活性度スコアを算出するための学習済みモデルを生成する。本実施形態では、学習部60は、例えば、履歴データ取得部58が取得した履歴データ28Dに基づいて、活性度スコアを算出するための学習済みモデルを生成する。学習部60は、例えば、活性度スコアを算出する学習済みモデルとしてDNN(Deep Neural Network)の重みを学習する。学習部60は、例えば、ディープラーニングなどの周知の機械学習の方法を用いて学習すればよい。学習部60は、例えば、学習用データが更新されるごとに、学習済みモデルを更新してもよい。
The learning unit 60 generates a trained model for calculating a user's activity score by learning through machine learning based on the learning data. In this embodiment, the learning unit 60 generates a trained model for calculating the activity score based on, for example, the
図19を用いて、第6実施形態に係る学習処理について説明する。図19は、第6実施形態に係る学習処理の流れの一例を示すフローチャートである。 The learning process according to the sixth embodiment will be described with reference to FIG. 19. FIG. 19 is a flowchart showing an example of the flow of the learning process according to the sixth embodiment.
制御部30cは、学習用データを取得する(ステップS110)。具体的には、履歴データ取得部58は、記憶部28bから活性度スコアの算出対象となるユーザの所定期間の履歴データ28Dを取得する。履歴データ取得部58が取得する履歴データ28Dには、少なくとも順位と、行動パターンと、行動スコアと、活性度スコアに関する情報が含まれ得る。履歴データ取得部58は、例えば、過去3カ月の1位から1000位までの履歴データ28Dを取得する。
The control unit 30c acquires learning data (step S110). Specifically, the history
制御部30cは、学習処理を実行する(ステップS111)。具体的には、学習部60は、履歴データ取得部58が取得した履歴データ28Dを用いて、ユーザの活性度スコアを算出するための学習済みモデルを機械学習により学習して生成する。より具体的には、学習部60は、行動パターンと、行動スコアと、自律神経活性度と、活性度スコアとを1つのデータセットとし、複数(例えば、1000個)のデータセットを教師データとして学習して学習済みモデルを生成する。学習部60は、例えば、活性度スコアの算出対象となるユーザごとに学習済みモデルを生成する。すなわち、本実施形態では、ユーザごとにカスタマイズされた学習済みモデルを生成する。
The control unit 30c executes a learning process (step S111). Specifically, the learning unit 60 uses the
制御部30cは、学習済みモデルを記憶する(ステップS112)。具体的には、学習部60は、生成した学習済みモデルを記憶部28cに記憶する。 The control unit 30c stores the trained model (step S112). Specifically, the learning unit 60 stores the generated trained model in the memory unit 28c.
[処理内容]
図20を用いて、第6実施形態に係る情報処理装置10cの処理内容について説明する。図20は、第6実施形態に係る情報処理装置10cの処理の流れの一例を示すフローチャートである。
[Processing content]
The process of the
ステップS120からステップS127の処理は、それぞれ、図9に示すステップS40からステップS47の処理と同一の処理なので、説明を省略する。 The processes from step S120 to step S127 are the same as the processes from step S40 to step S47 shown in FIG. 9, so their explanation is omitted.
制御部30cは、ユーザに応じた学習済みモデルに基づいて、活性度スコアを算出する(ステップS128)。具体的には、活性度スコア算出部54は、ユーザに応じてカスタマイズされた学習済みモデルを用いて、ユーザの活性度スコアを算出する。
The control unit 30c calculates the activity score based on the trained model for the user (step S128). Specifically, the activity
ステップS129からステップS132の処理は、それぞれ、図9に示すステップS49からステップS52の処理と同一の処理なので、説明を省略する。 The processes from step S129 to step S132 are the same as the processes from step S49 to step S52 shown in FIG. 9, so their explanation will be omitted.
上述のとおり、第6実施形態に係る情報処理装置10cは、ユーザU1からユーザU3のそれぞれのユーザごとに活性度スコアの履歴に応じてカスタマイズして生成された学習済みモデルを用いて、ユーザU1からユーザU3の活性スコアを算出する。これにより、第6実施形態に係る情報処理装置10cは、ユーザの感性に合わせ、より適切に活性度スコアを算出することができる。
As described above, the
[第7実施形態]
図21を用いて、第7実施形態に係る情報処理システムについて説明する。図21は、第7実施形態に係る情報処理システムの構成例を説明するための図である。
[Seventh embodiment]
An information processing system according to the seventh embodiment will be described with reference to Fig. 21. Fig. 21 is a diagram for explaining an example of the configuration of the information processing system according to the seventh embodiment.
図21に示すように、第7実施形態に係る情報処理システム1は、複数の情報処理装置10cと、サーバ装置100と、を含む。情報処理装置10cと、サーバ装置100とは、ネットワークN(例えば、インターネット)を介して、通信可能に接続されている。すなわち、第7実施形態に係る情報処理システム1は、第6実施形態に係る情報処理装置10cと、サーバ装置100とが通信可能に接続された構成を有している。
As shown in FIG. 21, the
上述の第6実施形態は、ユーザごとに活性度スコアの履歴に応じてカスタマイズして生成された学習済みモデルを用いて、ユーザの活性度を算出する。第7実施形態では、サーバ装置100が複数のユーザの履歴データを共有データとして記憶することにより、活性度スコアと行動パターンの傾向が近似している複数のユーザの履歴データに基づいて、学習済みモデルを生成して、ユーザの活性度を算出する。
In the sixth embodiment described above, a trained model is used to calculate the activity level of a user, which is customized and generated for each user according to the activity score history. In the seventh embodiment, the
図22を用いて、第7実施形態に係るサーバ装置の構成について説明する。図22は、第7実施形態に係るサーバ装置の構成例を示すブロック図である。 The configuration of the server device according to the seventh embodiment will be described with reference to FIG. 22. FIG. 22 is a block diagram showing an example of the configuration of the server device according to the seventh embodiment.
図22に示すように、サーバ装置100は、通信部110と、制御部120と、記憶部130と、を備える。サーバ装置100は、いわゆるクラウドサーバである。
As shown in FIG. 22, the
通信部110は、例えば、NIC(Network Interface Card)又は通信回路などによって実現される。通信部110は、ネットワークNと無線又は有線で接続され、情報処理装置10cとの間で情報の送受信を行う。
The
制御部120は、サーバ装置100の各部の動作を制御する。制御部120は、例えば、CPUやMPU等によって、図示しない記憶部に記憶されたプログラムがRAM等を作業領域として実行されることにより実現される。制御部120は、例えば、ASICやFPGA等の集積回路により実現されてもよい。制御部120は、ハードウェアと、ソフトウェアとの組み合わせで実現されてもよい。制御部120は、取得部122と、判定部124と、要求部126と、提供部128と、を備える。
The control unit 120 controls the operation of each unit of the
取得部122は、例えば、通信部110から情報処理装置10cを装着している各ユーザの活性度スコアの履歴に関する履歴データを取得する。取得部122は、例えば、図18Aから図18Cに示すユーザU1からユーザU3の履歴データ28D1から履歴データ28D3を取得する。取得部122は、取得した履歴データを共有データ132として記憶部130に記憶させる。
The acquisition unit 122 acquires, for example, history data related to the history of the activity score of each user wearing the
判定部124は、共有データ132のうち、履歴データの傾向を判定する。判定部124は、例えば、履歴データの傾向が近似しているユーザがいるか否かを判定する。 The determination unit 124 determines the trend of the history data from the shared data 132. For example, the determination unit 124 determines whether there are any users whose history data has similar trends.
要求部126は、履歴データの傾向が近似している複数のユーザ存在した場合に、自身の履歴データを他のユーザに使用させることについての可否を要求する。 When there are multiple users whose history data tendencies are similar, the request unit 126 requests whether or not to allow other users to use the user's history data.
提供部128は、履歴データの使用が許可された場合に、履歴データの傾向が近似しているユーザに対して、履歴データを提供する。
When the use of the history data is permitted, the providing
記憶部130は、制御部120の演算内容やプログラムなどの各種情報を記憶するメモリであり、例えば、RAMと、ROMのような主記憶装置と、HDDなどの外部記憶装置とのうち、少なくとも1つ含む。 The storage unit 130 is a memory that stores various information such as the calculation contents and programs of the control unit 120, and includes at least one of a RAM, a main storage device such as a ROM, and an external storage device such as a HDD.
記憶部130には、共有データ132が記憶されている。共有データ132は、情報処理装置10cを装着している複数のユーザの活性度スコアに関する履歴データを含み得る。共有データ132は、例えば、例えば、図18Aから図18Cに示すユーザU1からユーザU3の履歴データ28D1から履歴データ28D3を含み得る。
The storage unit 130 stores shared data 132. The shared data 132 may include history data related to activity scores of a plurality of users wearing the
[サーバ装置の処理]
図23を用いて、第7実施形態に係るサーバ装置の処理について説明する。図23は、第7実施形態に係るサーバ装置の処理の流れの一例を示すフローチャートである。
[Server Device Processing]
The process of the server device according to the seventh embodiment will be described with reference to Fig. 23. Fig. 23 is a flowchart showing an example of the flow of the process of the server device according to the seventh embodiment.
制御部120は、共有データ132を参照し、履歴データが近似しているユーザがいるか否かを判定する(ステップS140)。例えば、共有データ132には、図18Aから図18Cに示すユーザU1からユーザU3の履歴データ28D1から履歴データ28D3が含まれているとする。判定部124は、例えば、1位から3位までの行動パターンが同じであり、各行動パターンの行動スコアが8以上であり、かつ互いの活性度スコアの差が10以下のユーザ同士を、履歴データが近似しているユーザであると判定する。この場合、判定部124は、ユーザU1と、ユーザU2の活性度スコアの1位が行動パターンMP4であり、2位が行動パターンMP3であり、3位が行動パターンMP1であることを特定する。判定部124は、ユーザU1について、行動パターンMP4の行動スコアが10であり、行動パターンMP3の行動スコアが9であり、行動パターンMP1の行動スコアが8であることを特定する。判定部124は、ユーザU2について、行動パターンMP4の行動スコアが8であり、行動パターンMP3の行動スコアが8であり、行動パターンMP1の行動スコアが8であることを特定する。判定部124は、ユーザU1及びユーザU2について、行動パターンMP1の活性度スコアの差が9であり、行動パターンMP3の活性度スコアの差が3であり、行動パターンMP1の活性度スコアの差が1であることを特定する。この場合、判定部124は、ユーザU1と、ユーザU2とは履歴データが近似していると判定する。 The control unit 120 refers to the shared data 132 and determines whether there is a user whose history data is similar (step S140). For example, the shared data 132 includes the history data 28D1 to 28D3 of the user U1 to the user U3 shown in FIG. 18A to FIG. 18C. The determination unit 124 determines that the users whose history data is similar are, for example, those whose behavior patterns from 1st to 3rd place are the same, whose behavior scores for each behavior pattern are 8 or more, and whose activity score difference is 10 or less. In this case, the determination unit 124 specifies that the 1st activity score of the user U1 and the user U2 is the behavior pattern MP4, the 2nd activity score is the behavior pattern MP3, and the 3rd activity score is the behavior pattern MP1. The determination unit 124 specifies that the behavior score of the behavior pattern MP4 is 10, the behavior score of the behavior pattern MP3 is 9, and the behavior score of the behavior pattern MP1 is 8 for the user U1. The determination unit 124 determines that, for user U2, the behavior score of behavior pattern MP4 is 8, the behavior score of behavior pattern MP3 is 8, and the behavior score of behavior pattern MP1 is 8. The determination unit 124 determines that, for users U1 and U2, the difference in activity score of behavior pattern MP1 is 9, the difference in activity score of behavior pattern MP3 is 3, and the difference in activity score of behavior pattern MP1 is 1. In this case, the determination unit 124 determines that the history data of users U1 and U2 are similar to each other.
本実施形態では、判定部124は、ユーザU1からユーザU3の3人の中から2人を選択している場合を説明したが、これは例示であり、実際のユーザの母集団の人数に特に制限はない。判定部124は、3人以上のユーザの履歴データが近似していると判定することもあり得る。判定部124は、本実施形態で説明した方法以外の方法で、履歴データが近似しているか否かを判定してもよい。判定部124は、例えば、数学的に定義された所定の条件式に従って、履歴データが近似しているか否かを判定してもよい。 In this embodiment, the determination unit 124 has been described as selecting two out of three users, user U1 to user U3, but this is merely an example, and there is no particular limit to the number of users in the actual user population. The determination unit 124 may determine that the history data of three or more users is similar. The determination unit 124 may determine whether the history data is similar by a method other than the method described in this embodiment. The determination unit 124 may determine whether the history data is similar according to a predetermined mathematically defined conditional expression, for example.
近似しているユーザがいると判定された場合(ステップS140;Yes)、ステップS141に進む。近似しているユーザがいないと判定された場合(ステップS140;No)、図23の処理を終了する。 If it is determined that there is a similar user (step S140; Yes), proceed to step S141. If it is determined that there is no similar user (step S140; No), end the process of FIG. 23.
ステップS140でYesと判定された場合、制御部120は、履歴データが近似しているユーザに対して共有の許可を要求する(ステップS141)。具体的には、要求部126は、通信部110を介して、ユーザU1及びユーザU2に対して、履歴データの共有の許可を求める通知を送信する。
If step S140 returns Yes, the control unit 120 requests permission to share from users whose history data is similar (step S141). Specifically, the request unit 126 transmits a notification to users U1 and U2 via the
制御部120は、共有の要求が許可されたか否かを判定する(ステップS142)。具体的には、要求部126は、ステップS141で送信した履歴データの共有の許可の要求に対して、ユーザU1又はユーザU2から履歴データの共有を許可する旨の返答があったか否かを判定する。共有の要求が許可されたと判定された場合(ステップS142;Yes)、ステップS143に進む。共有の要求が許可されていないと判定された場合(ステップS142;No)、図23の処理を終了する。 The control unit 120 determines whether the sharing request has been permitted (step S142). Specifically, the request unit 126 determines whether or not user U1 or user U2 has responded to the request for permission to share the history data sent in step S141, indicating that the sharing of the history data is permitted. If it is determined that the sharing request has been permitted (step S142; Yes), the process proceeds to step S143. If it is determined that the sharing request has not been permitted (step S142; No), the process of FIG. 23 ends.
ステップS142でYesと判定された場合、制御部120は、履歴データを共有させる(ステップS143)。具体的には、提供部128は、例えば、ユーザU2から履歴データの共有を許可された場合には、通信部110を介して、ユーザU1が装着している情報処理装置10cに対してユーザU1の履歴データ28D1を送信する。そして、図23の処理を終了する。
If the answer to step S142 is Yes, the control unit 120 shares the history data (step S143). Specifically, when the providing
図24を用いて、第7実施形態に係る学習処理について説明する。図24は、第7実施形態に係る学習処理の流れの一例を示すフローチャートである。以下では、ユーザU1が装着している情報処理装置10cがユーザU2の履歴データ28D2を取得して、学習処理を行う処理について説明する。
The learning process according to the seventh embodiment will be described with reference to Fig. 24. Fig. 24 is a flowchart showing an example of the flow of the learning process according to the seventh embodiment. In the following, a process in which the
制御部30cは、履歴データを取得する(ステップS150)。具体的には、履歴データ取得部58は、記憶部28cから活性度スコアの算出対象となるユーザの所定期間の履歴データ28D1を取得する。履歴データ取得部58が取得する履歴データ28D1には、少なくとも順位と、行動パターンと、行動スコアと、活性度スコアに関する情報が含まれ得る。履歴データ取得部58は、例えば、過去3カ月の1位から1000位までの履歴データ28D1を所得する。すなわち、履歴データ取得部58は、1000組のデータセットを教師データとして取得する。
The control unit 30c acquires history data (step S150). Specifically, the history
制御部30cは、サーバ装置100からユーザU1の履歴データと近似している履歴データを取得する(ステップS151)。具体的には、履歴データ取得部58は、例えば、通信部26を介して、サーバ装置100からユーザU2の履歴データ28D2を取得する。ここで、例えば、履歴データ28D1の1000組のデータセットに含まれる数の少ない行動パターンが存在することも想定され得る。例えば、学習済みモデルを生成する場合には、6000から8000組以上のデータセットが必要な場合もあり得る。本実施形態では、履歴データ取得部58がサーバ装置100から履歴データ28D1に近似する履歴データ28D2を取得することで、データセット数を補い、より最適な学習済みモデルを生成することができる。
The control unit 30c acquires history data that is similar to the history data of the user U1 from the server device 100 (step S151). Specifically, the history
制御部30cは、学習処理を実行する(ステップS152)。具体的には、学習部60は、履歴データ取得部58が取得した履歴データ28D1と履歴データ28D2とを用いて、ユーザの活性度スコアを算出するための学習済みモデルを機械学習により学習して生成する。
The control unit 30c executes a learning process (step S152). Specifically, the learning unit 60 uses the history data 28D1 and 28D2 acquired by the history
制御部30cは、学習済みモデルを記憶する(ステップS153)。具体的には、学習部60は、生成した学習済みモデルを記憶部28bに記憶する。そして、図24の処理を終了する。
The control unit 30c stores the trained model (step S153). Specifically, the learning unit 60 stores the generated trained model in the
[処理内容]
図25を用いて、第7実施形態に係る情報処理装置10cの処理内容について説明する。図25は、第7実施形態に係る情報処理装置10cの処理の流れの一例を示すフローチャートである。
[Processing content]
The process of the
ステップS160からステップS167の処理は、それぞれ、図20に示すステップS120からステップS127の処理と同一の処理なので、説明を省略する。 The processes from step S160 to step S167 are the same as the processes from step S120 to step S127 shown in FIG. 20, and therefore will not be described.
制御部30cは、共有データを用いて生成された学習済みモデルに基づいて、活性度スコアを算出する(ステップS168)。具体的には、活性度スコア算出部54は、履歴データ28D1と履歴データ28D2とを用いて生成された学習済みモデルを用いて、ユーザU1の活性度スコアを算出する。
The control unit 30c calculates the activity score based on the trained model generated using the shared data (step S168). Specifically, the activity
ステップS169からステップS172の処理は、それぞれ、図20に示すステップS129からステップS132の処理と同一の処理なので、説明を省略する。 The processes from step S169 to step S172 are the same as the processes from step S129 to step S132 shown in FIG. 20, and therefore will not be described.
上述のとおり、第7実施形態に係る情報処理装置10cは、ユーザU1の履歴データ28D1と、履歴データ28D1に近似するユーザU2の履歴データ28D2とを用いて学習済みモデルを生成し、その学習済みモデルを用いて活性度スコアを算出する。これにより、第7実施形態に係る情報処理装置10cは、より適切に活性度スコアを算出することができる。
As described above, the
[第8実施形態]
次に、図26を用いて、第8実施形態に係る情報処理装置について説明する。図26は、第8実施形態に係る情報処理装置の構成例を示すブロック図である。
[Eighth embodiment]
Next, an information processing device according to the eighth embodiment will be described with reference to Fig. 26. Fig. 26 is a block diagram showing an example of the configuration of the information processing device according to the eighth embodiment.
図26に示すように、情報処理装置10dは、出力部24aが触覚刺激出力部24Cを備える点で、図2に示す情報処理装置10とは異なる。
As shown in FIG. 26, the information processing device 10d differs from the
ユーザの生体情報を時々刻々と変化するため、ユーザの活性度スコアも生体情報に変化に応じて、変化する可能性がある。情報処理装置10cは、ユーザの活性度スコアの時間的推移を相対的に提示することにより、活性度スコアの変化を分かりやすく提示する。
Because the user's biometric information changes from moment to moment, the user's activity score may also change in response to changes in the biometric information. The
触覚刺激出力部26Cは、ユーザUの触覚刺激を出力する装置である。例えば、触覚刺激出力部26Cは、振動などの物理的に作動することで、ユーザに触覚刺激を出力するが、触覚刺激の種類は、振動などに限られず任意のものであってよい。 The tactile stimulation output unit 26C is a device that outputs a tactile stimulation to the user U. For example, the tactile stimulation output unit 26C outputs a tactile stimulation to the user by physically operating, such as by vibration, but the type of tactile stimulation is not limited to vibration and may be any type.
第8実施形態に係る情報処理装置10dの制御部30dの出力制御部50は、出力制御部50は、出力部24aを制御して、活性度スコア算出部54が算出した活性度スコアの時間的な推移を示す情報を出力させる。言い換えれば、出力制御部50は、出力部24aを制御して、活性度スコアの相対的な変化を示す情報を出力させる。
The output control unit 50 of the control unit 30d of the information processing device 10d according to the eighth embodiment controls the
図27Aから図27Eを用いて、活性度スコアの時間的な推移を相対的に表示する方法について説明する。図27Aから図27Eは、活性度スコアの時間的な推移を相対的に表示する方法を説明するための図である。 Using Figures 27A to 27E, we will explain a method for relatively displaying the temporal progression of the activity score. Figures 27A to 27E are figures for explaining a method for relatively displaying the temporal progression of the activity score.
図27Aに示すように、出力制御部50は、例えば、表示部24Aを制御して、活性度スコアの時間的な推移をグラフG1として表示させる。図27Aは、横軸が時間、縦軸が活性度スコアを示す。グラフG1において、時刻t0は、活性度スコアの算出を開始した時点を示す。ユーザは、グラフG1を視認することで、活性度スコアの時間的な推移を容易に把握することができる。
As shown in FIG. 27A, the output control unit 50, for example, controls the
図27Bに示すように、出力制御部50は、例えば、表示部24Aを制御して、開始時の活性度スコアの値と、現在の活性度スコアの値とを並列に表示させる。図27Bに示す例では、開始時の活性度スコアが56で、現在の活性度スコアが78であることが示されている。これにより、ユーザは、活性度スコアの時間的な推移を容易に把握することができる。
As shown in FIG. 27B, the output control unit 50, for example, controls the
図27Cに示すように、出力制御部50は、例えば、表示部24Aを制御して、画面の左下隅を中心とする円を4等分した円弧を表示させる。図27Cに示す例では、円弧C1が、開始時点の活性度スコアを示し、その半径r1が活性度スコアの大きさを示す。図27Cに示す例では、円弧C2及び円弧C3は、現在の活性度スコアを示す。出力制御部50は、現在の活性度スコアが開始時点よりも大きければ、半径r1よりも大きい半径r2の円弧C2を半径r1の円弧C1と共に表示部24Aに表示させる。出力制御部50は、現在の活性度スコアが開始時点よりも小さければ、半径r1よりも小さい半径r3の円弧C3を半径r1の円弧C1と共に表示部24Aに表示させる。これにより、ユーザは、活性度スコアの時間的な推移を容易に把握することができる。
27C, the output control unit 50 controls the
図27Dに示すように、出力制御部50は、例えば、表示部24Aを制御して、棒を表示させる。図27Dに示す例では、棒B1が表示部24Aの中央部分に表示されているが、これに限らず、左下隅に表示されてもよいし、右下隅に表示されてもよい。図27Dに示す例では、棒B1が、開始時点の活性度スコアを示し、その高さh1が活性度スコアの大きさを示す。図27Dに示す例では、棒B2及び棒B3は、現在の活性度スコアを示す。出力制御部50は、現在の活性度スコアが開始時点よりも大きければ、高さh1よりも高い高さh2の棒B2を高さh1の棒B1と共に表示部24Aに表示させる。出力制御部50は、現在の活性度スコアが開始時点よりも小さければ、高さh1よりも低い高さh3の棒B3を高さh1の棒B1と共に表示部24Aに表示させる。これにより、ユーザは、活性度スコアの時間的な推移を容易に把握することができる。
27D, the output control unit 50 controls the
図27Eに示すように、出力制御部50は、例えば、表示部24Aを制御して、グラフG2を表示する。グラフG2は、棒グラフであり得る。図27Eは、横軸が時間を示し、縦軸が活性度スコアを示す。グラフG2において、時刻t0は、活性度スコアの算出を開始した時点を示す。ユーザは、グラフG2を視認することで、活性度スコアの時間的な推移を容易に把握することができる。
As shown in FIG. 27E, the output control unit 50 controls, for example, the
出力制御部50は、例えば、音声出力部24B又は触覚刺激出力部26Cを制御して、活性度スコアの時間的な推移を示す情報を出力してもよい。 The output control unit 50 may, for example, control the audio output unit 24B or the tactile stimulation output unit 26C to output information indicating the temporal progression of the activity score.
図28を用いて、音声出力部24B又は触覚刺激出力部24Cにより、活性度スコアの時間的な推移を示す情報を出力する方法について説明する。図28は、音声出力部24B又は触覚刺激出力部24Cにより活性度スコアの時間的な推移を示す情報を出力する方法を説明するための図である。
A method for outputting information showing the time progression of the activity score by the audio output unit 24B or the tactile
図28は、横軸が時間を示し、縦軸が活性度スコアを示す。時刻t0における活性度スコアNS1は、活性度スコアの算出を開始した時点の活性度スコアである。図28に示す例では、活性度スコアNS1が基準となる。出力制御部50は、例えば、基準である活性度スコアNS1を示す音声出力部24Bから出力させる音声の大きさを設定する。出力制御部50は、例えば、基準である活性度スコアNS1を示す触覚刺激出力部24Cから出力させる刺激(例えば、振動)の強さを設定する。
In FIG. 28, the horizontal axis indicates time and the vertical axis indicates the activity score. The activity score NS1 at time t0 is the activity score at the time when calculation of the activity score begins. In the example shown in FIG. 28, the activity score NS1 serves as the reference. The output control unit 50, for example, sets the volume of the sound to be output from the sound output unit 24B indicating the reference activity score NS1. The output control unit 50, for example, sets the strength of the stimulus (e.g., vibration) to be output from the tactile
ここで、時刻t1の時点で活性度スコアが活性度スコアNS1よりも大きい、活性度スコアNS2になったとする。この場合、出力制御部50は、例えば、音声出力部24Bを制御して、活性度スコアNS1に対応する音声と、活性度スコアNS2に対応する音声とをセットで出力させる。出力制御部50は、例えば、触覚刺激出力部24Cを制御して、活性度スコアNS1に対応する刺激と、活性度スコアNS2に対応する刺激とをセットで出力させる。活性度スコアNS2に対応する音声は、活性度スコアNS1に対応する音声よりも大きい。活性度スコアNS2に対応する刺激は、活性度スコアNS1に対応する刺激よりも強い。活性度スコアNS2に対応する音声の大きさは、例えば、活性度スコアNS1対する活性度スコアSN2の比に応じて変化させることが好ましい。活性度スコアNS2に対応する刺激の強さは、例えば、活性度スコアNS1に対する活性度スコアNS2の比に応じて変化させることが好ましい。これにより、ユーザは、活性度スコアNS2の活性度スコアNS1に対する相対的な大きさを把握することができる。
Here, assume that at time t1, the activity score becomes an activity score NS2, which is greater than the activity score NS1. In this case, the output control unit 50, for example, controls the audio output unit 24B to output a set of an audio corresponding to the activity score NS1 and an audio corresponding to the activity score NS2. The output control unit 50, for example, controls the tactile
ここで、時刻t2の時点で活性度スコアが活性度スコアNS1よりも小さい、活性度スコアNS3になったとする。この場合、出力制御部50は、例えば、音声出力部24Bを制御して、活性度スコアNS1に対応する音声と、活性度スコアNS3に対応する音声とをセットで出力させる。出力制御部50は、例えば、触覚刺激出力部24Cを制御して、活性度スコアNS1に対応する刺激と、活性度スコアNS3に対応する刺激とをセットで出力させる。活性度スコアNS3に対応する音声は、活性度スコアNS1に対応する音声よりも小さい。活性度スコアNS3に対応する刺激は、活性度スコアNS1に対応する刺激よりも弱い。活性度スコアNS3に対応する音声の大きさは、例えば、活性度スコアNS1対する活性度スコアSN2の比に応じて変化させることが好ましい。活性度スコアNS3に対応する刺激の強さは、例えば、活性度スコアNS1に対する活性度スコアNS2の比に応じて変化させることが好ましい。これにより、ユーザは、活性度スコアNS2の活性度スコアNS1に対する相対的な大きさを把握することができる。
Here, assume that at time t2, the activity score becomes an activity score NS3, which is smaller than the activity score NS1. In this case, the output control unit 50, for example, controls the audio output unit 24B to output a set of an audio corresponding to the activity score NS1 and an audio corresponding to the activity score NS3. The output control unit 50, for example, controls the tactile
上述のとおり、第8実施形態に係る情報処理装置10dは、ユーザの活性度スコアの時間的推移を相対的に提示する。これにより、第8実施形態に係る情報処理装置10dは、活性度スコアの時間的な変化が分かりやすくなる。 As described above, the information processing device 10d according to the eighth embodiment presents the temporal change in the user's activity score in a relative manner. This makes it easier to understand the temporal change in the activity score with the information processing device 10d according to the eighth embodiment.
以上、本発明の実施形態を説明したが、これら実施形態の内容により本発明が限定されるものではない。また、前述した構成要素には、当業者が容易に想定できるもの、実質的に同一のもの、いわゆる均等の範囲のものが含まれる。さらに、前述した構成要素は適宜組み合わせることが可能である。さらに、前述した実施形態の要旨を逸脱しない範囲で構成要素の種々の省略、置換又は変更を行うことができる。 Although the embodiments of the present invention have been described above, the present invention is not limited to the contents of these embodiments. The above-mentioned components include those that a person skilled in the art can easily imagine, those that are substantially the same, and those that are within the so-called equivalent range. Furthermore, the above-mentioned components can be combined as appropriate. Furthermore, various omissions, substitutions, or modifications of the components can be made without departing from the spirit of the above-mentioned embodiments.
10,10a,10b,10c,10d 情報処理装置
20 行動状態センサ
20A カメラ
20B マイク
20C GNSS受信器
20D 加速度センサ
20E ジャイロセンサ
20F 光センサ
20G 温度センサ
20H 湿度センサ
22 入力部
24 出力部
24A 表示部
24B 音声出力部
24C 触覚刺激出力部
26,110 通信部
28,130 記憶部
28A 学習モデル
28B 地図データ
28C,28Ca 補正データ
28D 履歴データ
30,30a,30b,30c,30d,120 制御部
32 生体センサ
32A 脈波センサ
40 行動状態情報取得部
42 行動パターン情報生成部
44 行動スコア算出部
46 行動パターン特定部
48 記憶制御部
50 出力制御部
52 生体情報取得部
54 活性度スコア算出部
56 活性度スコア補正部
58 履歴データ取得部
60 学習部
100 サーバ装置
122 取得部
124 判定部
126 要求部
128 提供部
10, 10a, 10b, 10c, 10d Information processing device 20 Behavioral state
Claims (5)
前記ユーザの生体情報に関する生体情報を検出する生体センサと、
前記行動状態情報に基づいて、少なくとも前記行動状態が検出された日時、場所、時間のパラメータを座標軸とする多次元空間に行動パターン情報を生成し、前記行動パターン情報が集まる行動パターン情報群の密度が所定の密度を超えている空間ごとにグループ化する行動パターン情報生成部と、
前記行動パターン情報群を含む空間の大きさに関する情報を行動スコアとして算出する行動スコア算出部と、
前記行動スコアの値が所定以上の前記空間内に存在する前記行動パターン情報群を前記ユーザの行動パターンとして特定する行動パターン特定部と、
前記生体情報に基づいて、前記ユーザの自律神経活性度を算出する自律神経活性度算出部と、
前記自律神経活性度と、前記行動スコアと、前記行動パターンとに基づいて、前記ユーザの活性度スコアを算出する活性度スコア算出部と、
前記自律神経活性度の強度に応じて出力部からの出力の強度を変更する出力制御部と、
を備える、情報処理装置。 A behavioral state sensor that detects behavioral state information related to a behavioral state of a user;
A biosensor for detecting biometric information related to the biometric information of the user;
a behavior pattern information generating unit that generates behavior pattern information in a multidimensional space based on the behavior state information and uses as coordinate axes parameters of at least the date and time, the place, and the time when the behavior state is detected, and groups the behavior pattern information into spaces where the density of the behavior pattern information group exceeds a predetermined density;
a behavior score calculation unit that calculates information regarding a size of a space including the group of behavior pattern information as a behavior score;
a behavior pattern identification unit that identifies the group of behavior pattern information that exists in the space and has a behavior score value equal to or greater than a predetermined value as a behavior pattern of the user;
an autonomic nerve activity calculation unit that calculates an autonomic nerve activity of the user based on the biological information;
an activity score calculation unit that calculates an activity score of the user based on the autonomic nerve activity level, the behavior score, and the behavior pattern;
an output control unit that changes the intensity of an output from an output unit in accordance with the intensity of the autonomic nerve activity;
An information processing device comprising:
請求項1に記載の情報処理装置。 The output control unit changes the intensity of the output from the output unit in response to a temporal change in the intensity of the autonomic nerve activity of the user.
The information processing device according to claim 1 .
前記出力制御部は、前記自律神経活性度の強度に応じて、前記触覚刺激出力部の振動の強度を変更する、
請求項1または2に記載の情報処理装置。 The output unit has a tactile stimulation output unit,
The output control unit changes the intensity of the vibration of the tactile stimulus output unit in accordance with the intensity of the autonomic nerve activity.
3. The information processing device according to claim 1 or 2.
前記ユーザの生体情報に関する生体情報を検出するステップと、
前記行動状態情報に基づいて、少なくとも前記行動状態が検出された日時、場所、時間のパラメータを座標軸とする多次元空間に行動パターン情報を生成し、前記行動パターン情報が集まる行動パターン情報群の密度が所定の密度を超えている空間ごとにグループ化するステップと、
前記行動パターン情報群を含む空間の大きさに関する情報を行動スコアとして算出するステップと、
前記行動スコアの値が所定以上の前記空間内に存在する前記行動パターン情報群を前記ユーザの行動パターンとして特定するステップと、
前記生体情報に基づいて、前記ユーザの自律神経活性度を算出するステップと、
前記自律神経活性度と、前記行動スコアと、前記行動パターンとに基づいて、前記ユーザの活性度スコアを算出するステップと、
前記自律神経活性度の強度に応じて出力部からの出力の強度を変更するステップと、
を含む、情報処理方法。 detecting behavioral state information relating to a behavioral state of a user;
detecting biometric information relating to a biometric profile of the user;
generating behavior pattern information in a multidimensional space based on the behavior state information, the coordinate axes being parameters of at least the date and time, the place, and the time when the behavior state was detected, and grouping the behavior pattern information into spaces where the density of the behavior pattern information group that gathers the behavior pattern information exceeds a predetermined density;
calculating information on the size of a space including the group of behavioral pattern information as a behavior score;
identifying a group of the behavior pattern information that exists in the space and has a behavior score value equal to or greater than a predetermined value as a behavior pattern of the user;
calculating an autonomic nerve activity level of the user based on the biological information;
calculating an activity score of the user based on the autonomic nerve activity level, the behavior score, and the behavior pattern;
changing the intensity of the output from an output unit in accordance with the intensity of the autonomic nerve activity;
An information processing method comprising:
前記ユーザの生体情報に関する生体情報を検出するステップと、
前記行動状態情報に基づいて、少なくとも前記行動状態が検出された日時、場所、時間のパラメータを座標軸とする多次元空間に行動パターン情報を生成し、前記行動パターン情報が集まる行動パターン情報群の密度が所定の密度を超えている空間ごとにグループ化するステップと、
前記行動パターン情報群を含む空間の大きさに関する情報を行動スコアとして算出するステップと、
前記行動スコアの値が所定以上の前記空間内に存在する前記行動パターン情報群を前記ユーザの行動パターンとして特定するステップと、
前記生体情報に基づいて、前記ユーザの自律神経活性度を算出するステップと、
前記自律神経活性度と、前記行動スコアと、前記行動パターンとに基づいて、前記ユーザの活性度スコアを算出するステップと、
前記自律神経活性度の強度に応じて出力部からの出力の強度を変更するステップと、
をコンピュータに実行させる、プログラム。 detecting behavioral state information relating to a behavioral state of a user;
detecting biometric information relating to a biometric profile of the user;
generating behavior pattern information in a multidimensional space based on the behavior state information, the coordinate axes being parameters of at least the date and time, the place, and the time when the behavior state was detected, and grouping the behavior pattern information into spaces where the density of the behavior pattern information group that gathers the behavior pattern information exceeds a predetermined density;
calculating information on the size of a space including the group of behavioral pattern information as a behavior score;
identifying a group of the behavior pattern information that exists in the space and has a behavior score value equal to or greater than a predetermined value as a behavior pattern of the user;
calculating an autonomic nerve activity level of the user based on the biological information;
calculating an activity score of the user based on the autonomic nerve activity level, the behavior score, and the behavior pattern;
changing the intensity of the output from an output unit in accordance with the intensity of the autonomic nerve activity;
A program that causes a computer to execute the following.
Priority Applications (5)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2020160244A JP7537207B2 (en) | 2020-09-24 | 2020-09-24 | Information processing device, information processing method, and program |
EP21872284.1A EP4202820A4 (en) | 2020-09-24 | 2021-09-15 | Information processing device, information processing method, and program |
PCT/JP2021/033904 WO2022065154A1 (en) | 2020-09-24 | 2021-09-15 | Information processing device, information processing method, and program |
CN202180058932.XA CN116194914A (en) | 2020-09-24 | 2021-09-15 | Information processing device, information processing method, and program |
US18/187,816 US20230222884A1 (en) | 2020-09-24 | 2023-03-22 | Information processing apparatus, information processing method, and computer-readable storage medium |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2020160244A JP7537207B2 (en) | 2020-09-24 | 2020-09-24 | Information processing device, information processing method, and program |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2022053411A JP2022053411A (en) | 2022-04-05 |
JP7537207B2 true JP7537207B2 (en) | 2024-08-21 |
Family
ID=80963059
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020160244A Active JP7537207B2 (en) | 2020-09-24 | 2020-09-24 | Information processing device, information processing method, and program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP7537207B2 (en) |
Citations (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2005072743A (en) | 2003-08-21 | 2005-03-17 | Aruze Corp | Information exchange terminal |
JP2012509145A (en) | 2008-11-19 | 2012-04-19 | イマージョン コーポレーション | Method and apparatus for generating tactile feedback based on mood |
JP2015188649A (en) | 2014-03-28 | 2015-11-02 | 大日本印刷株式会社 | A plurality of physiological index and visual line analysis support apparatus, programs |
JP2016137201A (en) | 2015-01-29 | 2016-08-04 | マツダ株式会社 | Control device for coping with feeling of passenger for vehicle |
WO2018221488A1 (en) | 2017-05-31 | 2018-12-06 | 本田技研工業株式会社 | Know-how information processing system, method and device |
WO2019017124A1 (en) | 2017-07-19 | 2019-01-24 | パナソニックIpマネジメント株式会社 | Drowsiness estimating device and awakening inducing device |
JP2019083564A (en) | 2012-10-19 | 2019-05-30 | 三星電子株式会社Samsung Electronics Co.,Ltd. | Display device, remote control device for controlling display device, method of controlling display device, method of controlling server, and method of controlling remote control device |
JP2019159586A (en) | 2018-03-09 | 2019-09-19 | 株式会社エヌ・ティ・ティ・データ | Impression derivation system, impression derivation method and impression derivation program |
JP2020046881A (en) | 2018-09-18 | 2020-03-26 | Zホールディングス株式会社 | Information processing apparatus, information processing method, and information processing program |
JP2022053365A (en) | 2020-09-24 | 2022-04-05 | 株式会社Jvcケンウッド | Information processing apparatus, information processing method, and program |
-
2020
- 2020-09-24 JP JP2020160244A patent/JP7537207B2/en active Active
Patent Citations (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2005072743A (en) | 2003-08-21 | 2005-03-17 | Aruze Corp | Information exchange terminal |
JP2012509145A (en) | 2008-11-19 | 2012-04-19 | イマージョン コーポレーション | Method and apparatus for generating tactile feedback based on mood |
JP2019083564A (en) | 2012-10-19 | 2019-05-30 | 三星電子株式会社Samsung Electronics Co.,Ltd. | Display device, remote control device for controlling display device, method of controlling display device, method of controlling server, and method of controlling remote control device |
JP2015188649A (en) | 2014-03-28 | 2015-11-02 | 大日本印刷株式会社 | A plurality of physiological index and visual line analysis support apparatus, programs |
JP2016137201A (en) | 2015-01-29 | 2016-08-04 | マツダ株式会社 | Control device for coping with feeling of passenger for vehicle |
WO2018221488A1 (en) | 2017-05-31 | 2018-12-06 | 本田技研工業株式会社 | Know-how information processing system, method and device |
WO2019017124A1 (en) | 2017-07-19 | 2019-01-24 | パナソニックIpマネジメント株式会社 | Drowsiness estimating device and awakening inducing device |
JP2019159586A (en) | 2018-03-09 | 2019-09-19 | 株式会社エヌ・ティ・ティ・データ | Impression derivation system, impression derivation method and impression derivation program |
JP2020046881A (en) | 2018-09-18 | 2020-03-26 | Zホールディングス株式会社 | Information processing apparatus, information processing method, and information processing program |
JP2022053365A (en) | 2020-09-24 | 2022-04-05 | 株式会社Jvcケンウッド | Information processing apparatus, information processing method, and program |
Also Published As
Publication number | Publication date |
---|---|
JP2022053411A (en) | 2022-04-05 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7501275B2 (en) | Information processing device, information processing method, and program | |
US20210378526A1 (en) | Systems and methods for detecting corrupt or inaccurate sensory representations | |
CN107847226B (en) | Vision cognition measurement system, server control method, and program | |
US20180206775A1 (en) | Measuring medication response using wearables for parkinson's disease | |
US20190365286A1 (en) | Passive tracking of dyskinesia/tremor symptoms | |
US20170169716A1 (en) | System and method for assessing visual and neuro-cognitive processing | |
US20100167801A1 (en) | Kids personal health records fed into video games | |
CN107773254A (en) | A kind of method and device for testing Consumer's Experience | |
US20220096863A1 (en) | Virtual reality headset and system for delivering an individualized therapy session | |
JP7537207B2 (en) | Information processing device, information processing method, and program | |
JP7537208B2 (en) | Information processing device, information processing method, and program | |
JP7501276B2 (en) | Information processing device, information processing method, and program | |
WO2022065154A1 (en) | Information processing device, information processing method, and program | |
Coniglio et al. | Human yaw rotation aftereffects with brief duration rotations are inconsistent with velocity storage | |
CN111938672A (en) | Visual characteristic detection method based on virtual reality environment and related equipment | |
US20220111257A1 (en) | System, Method and Computer Program Product Configured for Sensor-Based Enhancement of Physical Rehabilitation | |
KR20190047644A (en) | Method and wearable device for providing feedback on exercise | |
US11432773B2 (en) | Monitoring of diagnostic indicators and quality of life | |
US20210074389A1 (en) | System and method for collecting, analyzing, and utilizing cognitive, behavioral, neuropsychological, and biometric data from a user's interaction with a smart device with either physically invasive or physically non-invasive means | |
KR20220148484A (en) | Virtual reality based visual perseption analysis system, virtual reality based visual perseption analysis method and computer program stored in a recording medium to execute the method thereof | |
KR20230040093A (en) | Method, Computer Program And System For Biofeedback Using Video Content | |
Lee et al. | Proof-of-concept testing of a real-time mHealth measure to estimate postural control during walking: A potential application for mild traumatic brain injuries | |
US20230229372A1 (en) | Display device, display method, and computer-readable storage medium | |
JP7567311B2 (en) | Information providing device, information providing method, and program | |
US20230200711A1 (en) | Information providing device, information providing method, and computer-readable storage medium |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20230630 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20240416 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20240613 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20240709 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20240722 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7537207 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |