[go: up one dir, main page]

JP7537207B2 - Information processing device, information processing method, and program - Google Patents

Information processing device, information processing method, and program Download PDF

Info

Publication number
JP7537207B2
JP7537207B2 JP2020160244A JP2020160244A JP7537207B2 JP 7537207 B2 JP7537207 B2 JP 7537207B2 JP 2020160244 A JP2020160244 A JP 2020160244A JP 2020160244 A JP2020160244 A JP 2020160244A JP 7537207 B2 JP7537207 B2 JP 7537207B2
Authority
JP
Japan
Prior art keywords
behavior
information
user
behavior pattern
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2020160244A
Other languages
Japanese (ja)
Other versions
JP2022053411A (en
Inventor
隆幸 菅原
規 高田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
JVCKenwood Corp
Original Assignee
JVCKenwood Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by JVCKenwood Corp filed Critical JVCKenwood Corp
Priority to JP2020160244A priority Critical patent/JP7537207B2/en
Priority to EP21872284.1A priority patent/EP4202820A4/en
Priority to PCT/JP2021/033904 priority patent/WO2022065154A1/en
Priority to CN202180058932.XA priority patent/CN116194914A/en
Publication of JP2022053411A publication Critical patent/JP2022053411A/en
Priority to US18/187,816 priority patent/US20230222884A1/en
Application granted granted Critical
Publication of JP7537207B2 publication Critical patent/JP7537207B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
  • Measuring And Recording Apparatus For Diagnosis (AREA)
  • Measurement And Recording Of Electrical Phenomena And Electrical Characteristics Of The Living Body (AREA)
  • Measuring Pulse, Heart Rate, Blood Pressure Or Blood Flow (AREA)

Description

本発明は、情報処理装置、情報処理方法、およびプログラムに関する。 The present invention relates to an information processing device, an information processing method, and a program.

ユーザに装着されるウェアラブルデバイスを用いて、ユーザの動きを検出してユーザの行動を識別する技術が知られている。 Technology is known that uses a wearable device worn by a user to detect the user's movements and identify the user's behavior.

例えば、特許文献1には、ユーザの加速度情報を検出し、検出された加速度情報を用いて動作モードの制御を行う携帯電話装置が記載されている。特許文献2には、ユーザの所望の部位の動作情報を計測し、全身の運動状態を認識する動作情報計測システムが記載されている。 For example, Patent Document 1 describes a mobile phone device that detects acceleration information of a user and controls an operation mode using the detected acceleration information. Patent Document 2 describes a motion information measurement system that measures motion information of a desired part of a user's body and recognizes the motion state of the entire body.

特開2003-46630号公報JP 2003-46630 A 特開2004-184351号公報JP 2004-184351 A

ここで、ユーザの行動状態に関する情報に基づいて、ユーザの行動パターンを特定することが求められている。 Here, it is required to identify the user's behavioral pattern based on information about the user's behavioral state.

本発明は、ユーザの行動状態に関する情報に基づいて、ユーザの行動パターンを特定することのできる情報処理装置、情報処理方法、およびプログラムを提供することを目的とする。 The present invention aims to provide an information processing device, an information processing method, and a program that can identify a user's behavioral pattern based on information related to the user's behavioral state.

本発明の一態様に係る情報処理装置は、ユーザの行動状態に関する行動状態情報を検出する行動状態センサと、前記ユーザの生体情報に関する生体情報を検出する生体センサと、前記生体情報に基づいて、前記ユーザの自律神経活性度を算出する自律神経活性度算出部と、前記自律神経活性度の強度に応じて出力部からの出力の強度を変更する出力制御部と、を備える。 An information processing device according to one aspect of the present invention includes a behavioral state sensor that detects behavioral state information related to a user's behavioral state, a biosensor that detects bioinformation related to the user's bioinformation, an autonomic nerve activity calculation unit that calculates the autonomic nerve activity of the user based on the bioinformation, and an output control unit that changes the intensity of the output from the output unit according to the intensity of the autonomic nerve activity.

本発明の一態様に係る情報処理方法は、ユーザの行動状態に関する行動状態情報を検出するステップと、前記ユーザの生体情報に関する生体情報を検出するステップと、前記生体情報に基づいて、前記ユーザの自律神経活性度を算出するステップと、前記自律神経活性度の強度に応じて出力部からの出力の強度を変更するステップと、を含む。 An information processing method according to one aspect of the present invention includes the steps of detecting behavioral state information related to a behavioral state of a user, detecting bioinformation related to the bioinformation of the user, calculating the autonomic nerve activity of the user based on the bioinformation, and changing the intensity of the output from an output unit according to the intensity of the autonomic nerve activity.

本発明の一態様に係るプログラムは、ユーザの行動状態に関する行動状態情報を検出するステップと、前記ユーザの生体情報に関する生体情報を検出するステップと、前記生体情報に基づいて、前記ユーザの自律神経活性度を算出するステップと、前記自律神経活性度の強度に応じて出力部からの出力の強度を変更するステップと、をコンピュータに実行させる。 A program according to one aspect of the present invention causes a computer to execute the steps of detecting behavioral state information related to a user's behavioral state, detecting bioinformation related to the user's bioinformation, calculating the autonomic nerve activity of the user based on the bioinformation, and changing the intensity of the output from an output unit according to the intensity of the autonomic nerve activity.

本発明によれば、ユーザの行動状態に関する情報に基づいて、ユーザの行動パターンを特定することができる。 According to the present invention, it is possible to identify a user's behavioral pattern based on information about the user's behavioral state.

図1は、第1実施形態に係る情報処理装置を模式的に示す模式図である。FIG. 1 is a schematic diagram illustrating an information processing apparatus according to the first embodiment. 図2は、第1実施形態に係る情報処理装置の構成例を示すブロック図である。FIG. 2 is a block diagram showing an example of the configuration of the information processing device according to the first embodiment. 図3は、第1実施形態に係る情報処理装置の処理の流れの一例を示すフローチャートである。FIG. 3 is a flowchart showing an example of a processing flow of the information processing device according to the first embodiment. 図4は、行動パターン情報を生成する多次元空間について説明するための図である。FIG. 4 is a diagram for explaining a multidimensional space in which behavior pattern information is generated. 図5は、行動パターンを記憶するフォーマットを説明するための図である。FIG. 5 is a diagram for explaining a format for storing behavior patterns. 図6は、第2実施形態に係る情報処理装置の処理の流れの一例を示すフローチャートである。FIG. 6 is a flowchart showing an example of a processing flow of the information processing device according to the second embodiment. 図7は、日常行動と、非日常行動とを説明するための図である。FIG. 7 is a diagram for explaining daily behavior and non-daily behavior. 図8は、第3実施形態に係る情報処理装置の構成例を示すブロック図である。FIG. 8 is a block diagram showing an example of the configuration of an information processing device according to the third embodiment. 図9は、第3実施形態に係る情報処理装置の処理の流れの一例を示すフローチャートである。FIG. 9 is a flowchart showing an example of a processing flow of the information processing device according to the third embodiment. 図10は、脈波の一例を示すグラフである。FIG. 10 is a graph showing an example of a pulse wave. 図11は、行動パターンを記憶するフォーマットを説明するための図である。FIG. 11 is a diagram for explaining a format for storing behavior patterns. 図12は、第4実施形態に係る情報処理装置の構成例を示すブロック図である。FIG. 12 is a block diagram showing an example of the configuration of an information processing device according to the fourth embodiment. 図13は、補正データの一例を説明するための図である。FIG. 13 is a diagram for explaining an example of the correction data. 図14は、第4実施形態に係る情報処理装置の処理の流れの一例を示すフローチャートである。FIG. 14 is a flowchart showing an example of the flow of processing by the information processing device according to the fourth embodiment. 図15は、補正データの一例を説明するための図である。FIG. 15 is a diagram for explaining an example of the correction data. 図16は、第5実施形態に係る情報処理装置の処理の流れの一例を示すフローチャートである。FIG. 16 is a flowchart showing an example of the flow of processing by the information processing device according to the fifth embodiment. 図17は、第6実施形態に係る情報処理装置の構成例を示すブロック図である。FIG. 17 is a block diagram showing an example of the configuration of an information processing device according to the sixth embodiment. 図18Aは、ユーザの履歴データの一例を説明するための図である。FIG. 18A is a diagram illustrating an example of user history data. 図18Bは、ユーザの履歴データの一例を説明するための図である。FIG. 18B is a diagram illustrating an example of user history data. 図18Cは、ユーザの履歴データの一例を説明するための図である。FIG. 18C is a diagram illustrating an example of user history data. 図19は、第6実施形態に係る学習処理の流れの一例を示すフローチャートである。FIG. 19 is a flowchart showing an example of the flow of the learning process according to the sixth embodiment. 図20は、第6実施形態に係る情報処理装置の処理の流れの一例を示すフローチャートである。FIG. 20 is a flowchart showing an example of the flow of processing by the information processing device according to the sixth embodiment. 図21は、第7実施形態に係る情報処理システムの構成例を説明するための図である。FIG. 21 is a diagram illustrating an example of the configuration of an information processing system according to the seventh embodiment. 図22は、第7実施形態に係るサーバ装置の構成例を示すブロック図である。FIG. 22 is a block diagram illustrating an example of the configuration of a server device according to the seventh embodiment. 図23は、第7実施形態に係るサーバ装置の処理の流れの一例を示すフローチャートである。FIG. 23 is a flowchart showing an example of a process flow of a server device according to the seventh embodiment. 図24は、第7実施形態に係る学習処理の流れの一例を示すフローチャートである。FIG. 24 is a flowchart showing an example of the flow of the learning process according to the seventh embodiment. 図25は、第7実施形態に係る情報処理装置の処理の流れの一例を示すフローチャートである。FIG. 25 is a flowchart showing an example of the flow of processing by the information processing device according to the seventh embodiment. 図26は、第8実施形態に係る情報処理装置の構成例を示すブロック図である。FIG. 26 is a block diagram showing an example of the configuration of an information processing device according to the eighth embodiment. 図27Aは、活性度スコアの時間的な推移を相対的に表示する方法を説明するための図である。FIG. 27A is a diagram for explaining a method for relatively displaying the transition of activity scores over time. 図27Bは、活性度スコアの時間的な推移を相対的に表示する方法を説明するための図である。FIG. 27B is a diagram for explaining a method for relatively displaying the transition of activity scores over time. 図27Cは、活性度スコアの時間的な推移を相対的に表示する方法を説明するための図である。FIG. 27C is a diagram for explaining a method for relatively displaying the transition of activity scores over time. 図27Dは、活性度スコアの時間的な推移を相対的に表示する方法を説明するための図である。FIG. 27D is a diagram for explaining a method of relatively displaying the transition of activity scores over time. 図27Eは、活性度スコアの時間的な推移を相対的に表示する方法を説明するための図である。FIG. 27E is a diagram for explaining a method for relatively displaying the transition of activity scores over time. 図28は、活性度スコアの時間的な推移を示す情報を出力する方法を説明するための図である。FIG. 28 is a diagram for explaining a method for outputting information indicating a change over time in activity scores.

以下、添付図面を参照して、本発明に係る実施形態を詳細に説明する。なお、この実施形態により本発明が限定されるものではなく、また、実施形態が複数ある場合には、各実施形態を組み合わせて構成するものも含む。また、以下の実施形態において、同一の部位には同一の符号を付することにより重複する説明を省略する。 Hereinafter, an embodiment of the present invention will be described in detail with reference to the attached drawings. Note that the present invention is not limited to this embodiment, and when there are multiple embodiments, it also includes configurations in which the respective embodiments are combined. In addition, in the following embodiments, the same parts are given the same reference numerals, and duplicate explanations will be omitted.

[第1実施形態]
図1は、第1実施形態に係る情報処理装置の模式図である。図1に示すように、情報処理装置10は、ユーザUの体に装着される、いわゆるウェアラブルデバイスである。本実施形態の例では、情報処理装置10は、ユーザUの目に装着される装置10Aと、ユーザUの耳に装着される装置10Bと、ユーザの腕に装着される装置10Cとを含む。ユーザUの目に装着される装置10AはユーザUに視覚刺激を出力する(画像を表示する)後述の表示部26Aを含み、ユーザUの耳に装着される装置10Bは、ユーザUに聴覚刺激(音声)を出力する後述の音声出力部26Bを含み、ユーザUの腕に装着される装置10Cは、ユーザUに触覚刺激を出力する後述の触覚刺激出力部26Cを含む。ただし、図1の構成は一例であり、装置の数や、ユーザUへの装着位置も任意であってよい。例えば、情報処理装置10は、ウェアラブルデバイスに限られず、ユーザUに携帯される装置であってよく、例えばいわゆるスマートフォンやタブレット端末などであってもよい。
[First embodiment]
FIG. 1 is a schematic diagram of an information processing device according to the first embodiment. As shown in FIG. 1, the information processing device 10 is a so-called wearable device that is worn on the body of a user U. In the example of this embodiment, the information processing device 10 includes a device 10A worn on the eye of the user U, a device 10B worn on the ear of the user U, and a device 10C worn on the arm of the user. The device 10A worn on the eye of the user U includes a display unit 26A (described later) that outputs a visual stimulus to the user U (displays an image), the device 10B worn on the ear of the user U includes a sound output unit 26B (described later) that outputs an auditory stimulus (sound) to the user U, and the device 10C worn on the arm of the user U includes a tactile stimulus output unit 26C (described later) that outputs a tactile stimulus to the user U. However, the configuration of FIG. 1 is an example, and the number of devices and the position of attachment to the user U may be arbitrary. For example, the information processing device 10 is not limited to a wearable device, and may be a device carried by the user U, such as a so-called smartphone or tablet terminal.

図2は、第1実施形態に係る情報処理装置の構成例を示すブロック図である。図1に示すように、情報処理装置10は、行動状態センサ20と、入力部22と、出力部24と、通信部26と、記憶部28と、制御部30とを備える。 FIG. 2 is a block diagram showing an example of the configuration of an information processing device according to the first embodiment. As shown in FIG. 1, the information processing device 10 includes a behavioral state sensor 20, an input unit 22, an output unit 24, a communication unit 26, a memory unit 28, and a control unit 30.

行動状態センサ20は、情報処理装置10を装着しているユーザUの行動状態に関する行動状態情報を検出するセンサである。ユーザUの行動状態情報には、ユーザUの行動に関する各種の情報が含まれ得る。ユーザUの行動状態情報には、少なくともユーザUの物理的な身体の動き、行動をする日時、行動をする場所、行動を行っている時間に関する情報が含まれ得る。 The behavioral state sensor 20 is a sensor that detects behavioral state information related to the behavioral state of the user U wearing the information processing device 10. The behavioral state information of the user U may include various information related to the behavior of the user U. The behavioral state information of the user U may include information related to at least the physical body movements of the user U, the date and time when the behavior is performed, the location where the behavior is performed, and the time when the behavior is performed.

行動状態センサ20は、カメラ20Aと、マイク20Bと、GNSS受信器20Cと、加速度センサ20Dと、ジャイロセンサ20Eと、光センサ20Fと、温度センサ20Gと、湿度センサ20Hとを含む。ただし、行動状態センサ20は、行動状態情報を検出する任意のセンサを含むものであってよく、例えば、カメラ20Aと、マイク20Bと、GNSS受信器20Cと、加速度センサ20Dと、ジャイロセンサ20Eと、光センサ20Fと、温度センサ20Gと、湿度センサ20Hとの、少なくとも1つを含んだものであってよいし、他のセンサを含んだものであってもよい。 The behavioral state sensor 20 includes a camera 20A, a microphone 20B, a GNSS receiver 20C, an acceleration sensor 20D, a gyro sensor 20E, a light sensor 20F, a temperature sensor 20G, and a humidity sensor 20H. However, the behavioral state sensor 20 may include any sensor that detects behavioral state information, and may include, for example, at least one of the camera 20A, the microphone 20B, the GNSS receiver 20C, the acceleration sensor 20D, the gyro sensor 20E, the light sensor 20F, the temperature sensor 20G, and the humidity sensor 20H, or may include other sensors.

カメラ20Aは、撮像装置であり、行動状態情報として、情報処理装置10(ユーザU)の周辺の可視光を検出することで、情報処理装置10の周辺を撮像する。カメラ20Aは、所定のフレームレート毎に撮像するビデオカメラであってよい。情報処理装置10においてカメラ20Aの設けられる位置や向きは任意であるが、例えば、カメラ20Aは、図1に示す装置10Aに設けられており、撮像方向がユーザUの顔が向いている方向であってよい。これにより、カメラ20Aは、ユーザUの視線の先にある対象物を、すなわちユーザUの視野の範囲に入る対象物を、撮像できる。また、カメラ20Aの数は任意であり、単数であっても複数であってもよい。なお、カメラ20Aが複数ある場合には、カメラ20Aが向いている方向の情報も、取得される。 The camera 20A is an imaging device, and captures the surroundings of the information processing device 10 by detecting visible light around the information processing device 10 (user U) as behavioral state information. The camera 20A may be a video camera that captures images at a predetermined frame rate. The position and orientation of the camera 20A in the information processing device 10 are arbitrary, but for example, the camera 20A may be provided in the device 10A shown in FIG. 1, and the imaging direction may be the direction in which the face of the user U is facing. This allows the camera 20A to capture an object in the line of sight of the user U, that is, an object within the range of the user U's field of vision. The number of cameras 20A is arbitrary, and may be one or more. Note that when there are multiple cameras 20A, information on the direction in which the camera 20A is facing is also acquired.

マイク20Bは、行動状態情報として、情報処理装置10(ユーザU)の周辺の音声(音波情報)を検出するマイクである。情報処理装置10においてマイク20Bの設けられる位置、向き、及び数などは任意である。なお、マイク20Bが複数ある場合には、マイク20Bが向いている方向の情報も、取得される。 The microphone 20B is a microphone that detects sounds (sound wave information) around the information processing device 10 (user U) as behavioral state information. The position, orientation, and number of microphones 20B installed in the information processing device 10 are arbitrary. Note that, when there are multiple microphones 20B, information on the direction in which the microphones 20B are facing is also acquired.

GNSS受信器20Cは、行動状態情報として、情報処理装置10(ユーザU)の位置情報を検出する装置である。ここでの位置情報とは、地球座標である。本実施形態では、GNSS受信器20Cは、いわゆるGNSS(Global Navigation Satellite System)モジュールであり、衛星からの電波を受信して、情報処理装置10(ユーザU)の位置情報を検出する。 The GNSS receiver 20C is a device that detects the position information of the information processing device 10 (user U) as behavioral state information. The position information here is earth coordinates. In this embodiment, the GNSS receiver 20C is a so-called GNSS (Global Navigation Satellite System) module, and receives radio waves from satellites to detect the position information of the information processing device 10 (user U).

加速度センサ20Dは、行動状態情報として、情報処理装置10(ユーザU)の加速度を検出するセンサであり、例えば、重力、振動、及び衝撃などを検出する。 The acceleration sensor 20D is a sensor that detects the acceleration of the information processing device 10 (user U) as behavioral state information, for example, gravity, vibration, and impact.

ジャイロセンサ20Eは、行動状態情報として、情報処理装置10(ユーザU)の回転や向きを検出するセンサであり、コリオリの力やオイラー力や遠心力の原理などを用いて検出する。 The gyro sensor 20E is a sensor that detects the rotation and orientation of the information processing device 10 (user U) as behavioral state information, and detects this using the principles of Coriolis force, Euler force, centrifugal force, etc.

光センサ20Fは、行動状態情報として、情報処理装置10(ユーザU)の周辺の光の強度を検出するセンサである。光センサ20Fは、可視光線や赤外線や紫外線の強度を検出できる。 The optical sensor 20F is a sensor that detects the intensity of light around the information processing device 10 (user U) as behavioral state information. The optical sensor 20F can detect the intensity of visible light, infrared light, and ultraviolet light.

温度センサ20Gは、行動状態情報として、情報処理装置10(ユーザU)の周辺の温度を検出するセンサである。 The temperature sensor 20G is a sensor that detects the temperature around the information processing device 10 (user U) as behavioral status information.

湿度センサ20Hは、行動状態情報として、情報処理装置10(ユーザU)の周辺の湿度を検出するセンサである。 The humidity sensor 20H is a sensor that detects the humidity around the information processing device 10 (user U) as behavioral status information.

入力部22は、ユーザの操作を受け付ける装置であり、例えばタッチパネルなどであってよい。 The input unit 22 is a device that accepts user operations and may be, for example, a touch panel.

出力部24は、情報処理装置10による出力結果を出力する。出力部24は、例えば映像を表示する表示部24Aと、音声を出力する音声出力部24Bとを有する。本実施形態では、表示部24Aは、例えば、いわゆるHMD(Head Mounted Display)である。音声出力部24Bは、音声を出力するスピーカである。 The output unit 24 outputs the output result by the information processing device 10. The output unit 24 has, for example, a display unit 24A that displays video and an audio output unit 24B that outputs audio. In this embodiment, the display unit 24A is, for example, a so-called HMD (Head Mounted Display). The audio output unit 24B is a speaker that outputs audio.

通信部26は、外部の装置などと通信するモジュールであり、例えば、アンテナなどを含んでよい。通信部26による通信方式は、本実施形態では無線通信であるが、通信方式は任意であってよい。 The communication unit 26 is a module that communicates with an external device, and may include, for example, an antenna. In this embodiment, the communication method used by the communication unit 26 is wireless communication, but the communication method may be any method.

記憶部28は、制御部30の演算内容やプログラムなどの各種情報を記憶するメモリであり、例えば、RAM(Random Access Memory)と、ROM(Read Only Memory)のような主記憶装置と、HDD(Hard Disk Drive)などの外部記憶装置とのうち、少なくとも1つ含む。 The storage unit 28 is a memory that stores various information such as the calculation contents and programs of the control unit 30, and includes at least one of a main storage device such as a RAM (Random Access Memory) or a ROM (Read Only Memory), and an external storage device such as a HDD (Hard Disk Drive).

記憶部28には、学習モデル28Aと、地図データ28Bとが記憶されている。学習モデル28Aは、環境情報に基づいてユーザUのおかれている環境を特定するために用いられるAIモデルである。地図データ28Bは、実在の建造物や自然物などの位置情報を含んだデータであり、地球座標と実在の建造物や自然物などとが、関連付けられたデータといえる。学習モデル28A、及び地図データ30Bなどを用いた処理については、後述する。なお、学習モデル28A、及び地図データ28Bや、記憶部28が保存する制御部30用のプログラムは、情報処理装置10が読み取り可能な記録媒体に記憶されていてもよい。また、記憶部28が保存する制御部30用のプログラムや、学習モデル28A、及び地図データ28Bは、記憶部28に予め記憶されていることに限られず、これらのデータを使用する際に、情報処理装置10が通信によって外部の装置から取得してもよい。 The memory unit 28 stores a learning model 28A and map data 28B. The learning model 28A is an AI model used to identify the environment in which the user U is located based on environmental information. The map data 28B is data including location information of real buildings and natural objects, and can be said to be data in which the earth coordinates are associated with real buildings and natural objects. Processing using the learning model 28A and the map data 30B will be described later. The learning model 28A, the map data 28B, and the program for the control unit 30 stored in the memory unit 28 may be stored in a recording medium readable by the information processing device 10. In addition, the program for the control unit 30 stored in the memory unit 28, the learning model 28A, and the map data 28B are not limited to being stored in advance in the memory unit 28, and the information processing device 10 may acquire these data from an external device by communication when using these data.

制御部30は、情報処理装置10の各部の動作を制御する。制御部30は、例えば、CPU(Central Processing Unit)やMPU(Micro Processing Unit)等によって、図示しない記憶部に記憶されたプログラムがRAM等を作業領域として実行されることにより実現される。制御部30は、例えば、ASIC(Application Specific Integrated Circuit)やFPGA(Field Programmable Gate Array)等の集積回路により実現されてもよい。制御部30は、ハードウェアと、ソフトウェアとの組み合わせで実現されてもよい。 The control unit 30 controls the operation of each unit of the information processing device 10. The control unit 30 is realized, for example, by a CPU (Central Processing Unit) or MPU (Micro Processing Unit) executing a program stored in a storage unit (not shown) using a RAM or the like as a working area. The control unit 30 may be realized, for example, by an integrated circuit such as an ASIC (Application Specific Integrated Circuit) or an FPGA (Field Programmable Gate Array). The control unit 30 may be realized by a combination of hardware and software.

制御部30は、行動状態情報取得部40と、行動パターン情報生成部42と、行動スコア算出部44と、行動パターン特定部46と、記憶制御部48と、出力制御部50とを備える。 The control unit 30 includes a behavioral state information acquisition unit 40, a behavioral pattern information generation unit 42, a behavioral score calculation unit 44, a behavioral pattern identification unit 46, a memory control unit 48, and an output control unit 50.

行動状態情報取得部40は、行動状態センサ20を制御して、行動状態センサ20にユーザUの行動状態情報を検出させる。行動状態情報取得部40は、行動状態センサ20が検出した行動状態情報を取得する。 The behavioral state information acquisition unit 40 controls the behavioral state sensor 20 to cause the behavioral state sensor 20 to detect behavioral state information of the user U. The behavioral state information acquisition unit 40 acquires the behavioral state information detected by the behavioral state sensor 20.

行動パターン情報生成部42は、行動状態情報取得部40が取得した行動状態情報に基づいて、行動パターン情報を生成する。行動パターン情報生成部42は、例えば、行動状態情報に基づいて、少なくともユーザUの行動状態が検出された日時、場所、時間のパラメータを座標軸とする多次元空間に行動パターン情報を生成する。 The behavior pattern information generating unit 42 generates behavior pattern information based on the behavior state information acquired by the behavior state information acquiring unit 40. The behavior pattern information generating unit 42 generates behavior pattern information in a multidimensional space having, for example, the coordinate axes of parameters of at least the date, time, and place at which the behavior state of the user U was detected, based on the behavior state information.

行動スコア算出部44は、行動パターン情報生成部42が生成した行動パターン情報に基づいて、行動スコアを算出する。行動スコア算出部44は、例えば、行動状態情報が集まる行動パターン情報群の密度が所定の密度を超えている空間ごとにグループ化する。行動スコア算出部44は、グループ化された行動パターン情報群を含む空間に基づいて、行動パターン情報群の行動スコアを算出する。具体的には、行動スコア算出部44は、例えば、行動パターン情報群を含む空間の大きさに関する情報を行動スコアとして算出する。 The behavior score calculation unit 44 calculates a behavior score based on the behavior pattern information generated by the behavior pattern information generation unit 42. For example, the behavior score calculation unit 44 groups the behavior pattern information groups, in which behavior state information is collected, into spaces where the density of the behavior pattern information groups exceeds a predetermined density. The behavior score calculation unit 44 calculates a behavior score for the behavior pattern information groups based on the spaces that include the grouped behavior pattern information groups. Specifically, the behavior score calculation unit 44 calculates, for example, information on the size of the space that includes the behavior pattern information groups as the behavior score.

行動パターン特定部46は、行動スコア算出部44が算出した行動スコアに基づいて、ユーザUの行動パターンを特定する。行動パターン特定部46は、行動スコアの値が所定の閾値を超えている行動パターン情報群に対応する行動をユーザUの行動パターンであると判定する。行動パターン特定部46は、例えば、行動状態情報取得部40が取得した画像データ、音声データ、位置情報、加速度情報、姿勢情報、赤外線及び紫外線の強度情報、温度情報、及び湿度情報などに基づいて、ユーザUが行っていた行動の種類を特定する。 The behavior pattern identification unit 46 identifies the behavior pattern of user U based on the behavior score calculated by the behavior score calculation unit 44. The behavior pattern identification unit 46 determines that the behavior corresponding to the behavior pattern information group in which the behavior score value exceeds a predetermined threshold is the behavior pattern of user U. The behavior pattern identification unit 46 identifies the type of behavior that user U was performing based on, for example, image data, voice data, position information, acceleration information, posture information, infrared and ultraviolet intensity information, temperature information, and humidity information acquired by the behavior state information acquisition unit 40.

記憶制御部48は、記憶部28を制御して、記憶を行わせる。行動パターン特定部46が特定したユーザUの行動パターンに関する情報を記憶部28に記憶する。記憶制御部48は、行動パターン特定部46が特定したユーザUの行動パターンに関する情報を所定のフォーマットで記憶部28に記憶する。所定のフォーマットについては、後述する。 The memory control unit 48 controls the memory unit 28 to perform storage. Information relating to the behavior pattern of user U identified by the behavior pattern identification unit 46 is stored in the memory unit 28. The memory control unit 48 stores information relating to the behavior pattern of user U identified by the behavior pattern identification unit 46 in the memory unit 28 in a predetermined format. The predetermined format will be described later.

出力制御部50は、出力部24を制御して、出力を行わせる。出力制御部50は、例えば、表示部24Aを制御して、行動パターンに関する情報を表示させる。出力制御部50は、例えば、音声出力部24Bを制御して、行動パターンに関する情報を音声で出力する。 The output control unit 50 controls the output unit 24 to perform output. The output control unit 50, for example, controls the display unit 24A to display information related to behavior patterns. The output control unit 50, for example, controls the audio output unit 24B to output information related to behavior patterns by audio.

[処理内容]
図3を用いて、第1実施形態に係る情報処理装置10の処理内容について説明する。図3は、第1実施形態に係る情報処理装置10の処理の流れの一例を示すフローチャートである。
[Processing content]
The processing contents of the information processing device 10 according to the first embodiment will be described with reference to Fig. 3. Fig. 3 is a flowchart showing an example of the flow of processing of the information processing device 10 according to the first embodiment.

制御部30は、行動状態センサ20からユーザUの行動に関する行動状態情報を取得する(ステップS10)。具体的には、行動状態情報取得部40は、情報処理装置10(ユーザU)の周辺を撮像した画像データをカメラ20Aから取得する。行動状態情報取得部40は、情報処理装置10(ユーザU)の周辺の音声を収音した音声データをマイク20Bから取得する。行動状態情報取得部40は、情報処理装置10(ユーザU)の位置情報をGNSS受信器20Cから取得する。行動状態情報取得部40は、情報処理装置10(ユーザU)の加速度情報を加速度センサ20Dから取得する。行動状態情報取得部40は、情報処理装置10(ユーザU)の姿勢情報をジャイロセンサ20Eから取得する。行動状態情報取得部40は、情報処理装置10(ユーザU)の周辺の赤外線及び紫外線の強度情報を光センサ20Fから取得する。行動状態情報取得部40は、情報処理装置10(ユーザU)の周辺の温度情報を温度センサ20Gから取得する。行動状態情報取得部40は、情報処理装置10(ユーザU)の周辺の湿度情報を湿度センサ20Hから取得する。行動状態情報取得部40は、これらの情報を、所定期間ごとに、逐次取得する。行動状態情報取得部40は、それぞれの行動状態情報を、同じタイミングで取得してもよいし、異なるタイミングで取得してもよい。また、次の行動状態情報を取得するまでの所定期間は、任意に設定してよく、環境情報毎に所定期間を同じにしてもよいし、異ならせてもよい。 The control unit 30 acquires behavioral state information related to the behavior of the user U from the behavioral state sensor 20 (step S10). Specifically, the behavioral state information acquisition unit 40 acquires image data of the surroundings of the information processing device 10 (user U) from the camera 20A. The behavioral state information acquisition unit 40 acquires audio data of the surroundings of the information processing device 10 (user U) from the microphone 20B. The behavioral state information acquisition unit 40 acquires position information of the information processing device 10 (user U) from the GNSS receiver 20C. The behavioral state information acquisition unit 40 acquires acceleration information of the information processing device 10 (user U) from the acceleration sensor 20D. The behavioral state information acquisition unit 40 acquires posture information of the information processing device 10 (user U) from the gyro sensor 20E. The behavioral state information acquisition unit 40 acquires infrared and ultraviolet intensity information of the surroundings of the information processing device 10 (user U) from the light sensor 20F. The behavioral state information acquisition unit 40 acquires temperature information around the information processing device 10 (user U) from the temperature sensor 20G. The behavioral state information acquisition unit 40 acquires humidity information around the information processing device 10 (user U) from the humidity sensor 20H. The behavioral state information acquisition unit 40 acquires these pieces of information sequentially at predetermined intervals. The behavioral state information acquisition unit 40 may acquire each piece of behavioral state information at the same timing or at different timings. In addition, the predetermined period until the next behavioral state information is acquired may be set arbitrarily, and the predetermined period may be the same or different for each piece of environmental information.

ユーザUの行動には、行動自体の物理的な身体の動き、その行動をする日時、その行動をする場所、その行動をその場所で行っている時間の3つの要素が含まれ得る。ユーザUの行動には、ユーザUの身体の動きだけでなく、例えば、「ゴルフをする」、「映画を見る」、「買い物をする」などの行為も含まれ得る。行動状態情報取得部40が取得したユーザUの身体の動きが同じであっても、位置情報が異なっていれば行っている行為が異なることもあり得る。 The behavior of user U may include three elements: the physical body movements of the behavior itself, the date and time the behavior is performed, the place where the behavior is performed, and the time the behavior is performed at that place. The behavior of user U may include not only the body movements of user U, but also actions such as "playing golf," "watching a movie," and "shopping." Even if the body movements of user U acquired by the behavioral state information acquisition unit 40 are the same, the actions being performed may be different if the position information is different.

制御部30は、ユーザUの行動パターン情報を生成する(ステップS11)。具体的には、行動パターン情報生成部42は、行動状態情報取得部40が取得したユーザUの行動状態情報に基づいて、ユーザUの行動パターン情報を生成する。制御部30は、行動パターン情報群をグループ化する(ステップS12)。具体的には、行動パターン情報生成部42は、行動パターン情報が集まる行動パターン情報群の密度が所定の密度を超えている空間ごとにグループ化する。制御部30は、行動スコアを算出する(ステップS13)。具体的には、行動スコア算出部44は、行動パターン情報群を含む空間の中心から端部までの距離を行動スコアとして算出する。言い換えれば、行動スコア算出部44は、行動パターン情報群を含む空間の大きさを行動スコアとして算出する。 The control unit 30 generates behavior pattern information of the user U (step S11). Specifically, the behavior pattern information generation unit 42 generates behavior pattern information of the user U based on the behavior state information of the user U acquired by the behavior state information acquisition unit 40. The control unit 30 groups the behavior pattern information group (step S12). Specifically, the behavior pattern information generation unit 42 groups the behavior pattern information group by space where the density of the behavior pattern information group where the behavior pattern information is collected exceeds a predetermined density. The control unit 30 calculates a behavior score (step S13). Specifically, the behavior score calculation unit 44 calculates the distance from the center to the edge of the space including the behavior pattern information group as the behavior score. In other words, the behavior score calculation unit 44 calculates the size of the space including the behavior pattern information group as the behavior score.

図4は、行動パターン情報を生成する多次元空間について説明するための図である。 Figure 4 is a diagram explaining the multidimensional space in which behavior pattern information is generated.

図4は、日時、場所、時間を座標軸とする3次元空間を示す。図4では、日時は0時から24時、場所は自宅からの1次元的な直線距離、時間は行動の開始と判断されてから終了と判断されるまでの時間であるが、これに限られない。例えば、場所は名称および住所などであってもよい。 Figure 4 shows a three-dimensional space with date, time, and location as coordinate axes. In Figure 4, date and time is from midnight to midnight, location is the one-dimensional linear distance from home, and time is the time from when an action is determined to start to when it is determined to end, but this is not limited to this. For example, location may be a name and address, etc.

行動パターン情報生成部42は、図4に示す3次元空間において、所定の時間間隔ごとに点Pをプロットすることで行動パターン情報を生成する。行動パターン情報生成部42は、例えば、1分間隔ごとに点Pをプロットするが、これに限られない。行動パターン情報生成部42は、例えば、ユーザUが「正午頃」に「エリアA2付近」で、「2時間」映画を見ていたとする。この場合、行動パターン情報生成部42は、「正午頃」と、「エリアA2付近」と、「2時間」とか交差する点から日時の軸と平行に、「14時頃」まで所定間隔で点Pをプロットする。なお、ユーザUが映画館にいたことは、行動パターン特定部46が、ユーザUの周辺の画像データ、音声データ、位置情報、加速度情報、姿勢情報、赤外線及び紫外線の強度情報、温度情報、及び湿度情報などに基づいて、特定することができる。ユーザUの行動として「食料品を購入する」の場合、通常、スーパーマーケット及びデパートの地下街などの食料品店の候補は複数あり得る。 The behavior pattern information generating unit 42 generates behavior pattern information by plotting points P at predetermined time intervals in the three-dimensional space shown in FIG. 4. The behavior pattern information generating unit 42 plots points P at one-minute intervals, but is not limited to this. For example, the behavior pattern information generating unit 42 assumes that the user U watched a movie for "two hours" in "near area A2" at "around noon". In this case, the behavior pattern information generating unit 42 plots points P at predetermined intervals from the point where "around noon", "near area A2", and "two hours" intersect, parallel to the axis of time and date, to "around 14:00". The behavior pattern identifying unit 46 can identify that the user U was in a movie theater based on image data, voice data, position information, acceleration information, posture information, infrared and ultraviolet intensity information, temperature information, and humidity information of the user U's surroundings. In the case of "purchasing groceries" as the behavior of the user U, there are usually multiple candidates for grocery stores such as supermarkets and underground shopping malls in department stores.

行動パターン情報生成部42は、図4に示す3次元空間において、行動パターン情報として生成されて点Pが集まる行動パターン情報群の密度が所定の密度を超えている空間を同一の行動パターンとしてグループ化する。行動パターン情報生成部42は、例えば、行動パターン情報が生成され得る空間Sに対して、単位空間USを用いてスキャニングを行う。行動パターン情報生成部42は、例えば、空間Sの各箇所における単位空間USに含まれる点Pの数をカウントする。行動パターン情報生成部42は、例えば、単位空間USに含まれる点Pの数が最も多い箇所を行動パターン情報の中心として特定する。行動パターン情報生成部42は、点Pの数が最も多い単位空間USの周囲の単位空間USに含まれる点Pの数をカウントし、点Pの数が最も多い単位空間USの60%程度の点Pが含まれている単位空間USまでを同一のグループGとして特定する。行動スコア算出部44は、例えば、グループGの中心から何れかの面に引いた垂線の長さを行動スコアとして算出する。行動スコア算出部44は、例えば、グループGの体積を行動スコアとして算出する。なお、行動パターン情報生成部42は、図4に示す3次元空間において、複数のグループGを特定することもあり得る。 The behavior pattern information generating unit 42 groups, in the three-dimensional space shown in FIG. 4, spaces in which the density of the behavior pattern information group in which the points P are generated as behavior pattern information exceeds a predetermined density as the same behavior pattern. For example, the behavior pattern information generating unit 42 performs scanning using the unit space US for the space S in which the behavior pattern information can be generated. For example, the behavior pattern information generating unit 42 counts the number of points P included in the unit space US at each location in the space S. For example, the behavior pattern information generating unit 42 identifies the location in which the number of points P included in the unit space US is the largest as the center of the behavior pattern information. The behavior pattern information generating unit 42 counts the number of points P included in the unit space US surrounding the unit space US with the largest number of points P, and identifies the unit space US containing about 60% of the points P of the unit space US with the largest number of points P as the same group G. The behavior score calculating unit 44 calculates, for example, the length of a perpendicular line drawn from the center of the group G to any surface as the behavior score. The behavior score calculation unit 44 calculates, for example, the volume of the group G as the behavior score. Note that the behavior pattern information generation unit 42 may identify multiple groups G in the three-dimensional space shown in FIG. 4.

ここで、ユーザUの行動には、例えば、「車の購入」であれば「ディーラーに行く」及び「椅子の購入」であれば「ホームセンターに行く」などの購入する対象が頻繁ではないものを購入する行動もあり得る。これらの行動については、図4に示す3次元空間上において、場所も、時間も、日時もばらばらにプロットされるものと考えられる。しかしながら、例えば、ユーザUが毎日朝6時に、近くの「公園」で「体操」を「約10分」するとしたら、3次元空間上にプロットされる点は日を追うごとに空間上に密集してくる。同じ公園の場所の中でも数mから数十mは体操をする場所が日によって違うこともあり得るし、時間も10分から±2分程度ばらつくこともあり得る。このため、行動パターン情報生成部42は、3次元空間上において比較的大きな密集された群のように偏りがあるように行動パターン情報をプロットして生成し得る。このように、比較的簡単な情報である時刻、場所、時間というパラメータを座標軸に選ぶことで、特定の揺らぎを持つ3次元空間の密集した群を1つの行動パターンとして扱うことができるようになる。 Here, the behavior of the user U may include behavior of purchasing items that are not purchased frequently, such as "going to a dealer" for "purchasing a car" and "going to a home improvement center" for "purchasing a chair". It is considered that these behaviors are plotted in the three-dimensional space shown in FIG. 4 in a random manner in terms of location, time, and date and time. However, for example, if the user U does "exercises" for "about 10 minutes" at 6 a.m. every day in a nearby "park", the points plotted in the three-dimensional space become denser in space with each passing day. Even in the same park, the place where the exercises are done may differ from day to day by several meters to several tens of meters, and the time may vary from 10 minutes to about ±2 minutes. For this reason, the behavior pattern information generating unit 42 can generate behavior pattern information by plotting it so that it has a bias like a relatively large dense group in the three-dimensional space. In this way, by selecting parameters such as time, place, and time, which are relatively simple information, as the coordinate axes, it becomes possible to treat a dense group in a three-dimensional space with a specific fluctuation as one behavior pattern.

図4に示す例では、ユーザUの行動パターンを3次元空間上に示したが、本発明はこれに限定されない。本実施形態では、ユーザUの行動パターンは、任意の多次元空間に生成してよい。例えば、場所は「自宅からの直線距離」としたが、場所を「緯度」と「経度」としてもよい。この場合、行動パターン情報が生成される空間は、4次元空間となる。さらに、日時は「0時から24時」として1日間を示したが、「曜日」として7単位のスカラー値を持つ軸を加えて、5次元空間としてもよい。すこの場合、例えば、ユーザUが月曜日から金曜日に出勤し、土曜日及び日曜日が休日である場合、月曜日から金曜日と、土曜日及び日曜日とでは、行動パターン情報群のプロットが大きく変化し得る。「曜日」の軸の視点で見ると、日常行動の行動パターンと、非日常行動な行動パターンとを判別しやすくなる。日常行動及び非日常行動の行動パターンについては、後述する。 In the example shown in FIG. 4, the behavior pattern of user U is shown in a three-dimensional space, but the present invention is not limited to this. In this embodiment, the behavior pattern of user U may be generated in any multidimensional space. For example, the location is set to "straight-line distance from home," but the location may be set to "latitude" and "longitude." In this case, the space in which the behavior pattern information is generated is a four-dimensional space. Furthermore, the date and time are shown as "0:00 to 24:00" for one day, but an axis having a scalar value of seven units as "day of the week" may be added to make it a five-dimensional space. In this case, for example, if user U works from Monday to Friday and Saturday and Sunday are holidays, the plot of the behavior pattern information group may change significantly between Monday to Friday and Saturday and Sunday. From the perspective of the "day of the week" axis, it is easier to distinguish between daily behavior patterns and non-daily behavior patterns. Daily behavior patterns and non-daily behavior patterns will be described later.

なお、時間は、その行動の開始から終了までの時間としたが、本発明はこれに限られない。例えば、「バットの素振りを200回行った」とか、「何歩歩いた(又は走った)」とかなどの断続的な継続事象のような行動である場合、頻度であってもよい。例えば、ユーザUが定期的に運動をする習慣が場合に時間を頻度に変更することにより、あらゆる行動パターンを「動き」という「運動」のパラメータとして捉えることができ、ユーザUにとって興味あるデータとして表示できる可能性が高くなる。 Note that, although the time is described as the time from the start to the end of the action, the present invention is not limited to this. For example, in the case of an action that is an intermittent, continuing event such as "took 200 practice swings at a bat" or "how many steps walked (or ran)", frequency may be used. For example, if user U has the habit of exercising regularly, by changing the time to frequency, any behavioral pattern can be captured as a parameter of "movement" or "exercise", increasing the possibility of displaying data that is of interest to user U.

図3に戻る。制御部30は、行動スコアが閾値未満であるか否かを判定する(ステップS14)。具体的には、行動パターン特定部46は、ステップS13で行動スコア算出部44が算出した行動スコアが所定の閾値未満であるか否かを判定する。閾値未満であると判定された場合(ステップS14;Yes)、ステップS15に進む。閾値未満でないと判定された場合(ステップS14;No)、ステップS18に進む。 Returning to FIG. 3, the control unit 30 determines whether or not the behavior score is less than the threshold value (step S14). Specifically, the behavior pattern identification unit 46 determines whether or not the behavior score calculated by the behavior score calculation unit 44 in step S13 is less than a predetermined threshold value. If it is determined that it is less than the threshold value (step S14; Yes), the process proceeds to step S15. If it is determined that it is not less than the threshold value (step S14; No), the process proceeds to step S18.

ステップS14でYesと判定された場合、制御部30は、行動パターンを特定する(ステップS15)。具体的には、行動パターン特定部46は、行動スコアが所定の閾値以下であった行動パターン情報群に対応する行動をユーザUの行動パターンであると特定する。 If the answer to step S14 is Yes, the control unit 30 identifies the behavior pattern (step S15). Specifically, the behavior pattern identification unit 46 identifies the behavior corresponding to the behavior pattern information group whose behavior score is equal to or less than a predetermined threshold as the behavior pattern of the user U.

制御部30は、特定された行動パターンの行動状態の種類を識別する(ステップS16)。具体的には、行動パターン特定部46は、行動状態情報取得部40が取得した行動状態情報に基づいて、ユーザUが行った行動状態の種類を識別してよい。 The control unit 30 identifies the type of behavioral state of the identified behavior pattern (step S16). Specifically, the behavioral pattern identification unit 46 may identify the type of behavioral state performed by the user U based on the behavioral state information acquired by the behavioral state information acquisition unit 40.

より具体的には、行動パターン特定部46は、例えば、学習モデル28Aを用いて、ユーザUの行動状態を特定してもよい。学習モデル28Aは、行動状態センサ20の検出結果と、行動状態センサ20の検出結果が示す行動状態の種類を示す情報とを1つのデータセットとし、複数のデータセットを教師データとして学習して構築されたAIモデルである。行動パターン特定部46は、学習済みの学習モデル28Aに、行動状態センサ20の検出結果を入力して、その検出結果が示す行動状態の種類を示す情報を取得して、ユーザUの行動状態の種類を識別する。行動パターン特定部46は、学習済みの学習モデル28Aを用いて、例えば、ユーザUがゴルフをしている、ショッピングをしている、映画館にいることなどを特定する。 More specifically, the behavior pattern identification unit 46 may identify the behavior state of the user U, for example, using the learning model 28A. The learning model 28A is an AI model constructed by learning a plurality of data sets as teacher data, with the detection result of the behavior state sensor 20 and information indicating the type of behavior state indicated by the detection result of the behavior state sensor 20 being treated as one data set. The behavior pattern identification unit 46 inputs the detection result of the behavior state sensor 20 into the learned learning model 28A, acquires information indicating the type of behavior state indicated by the detection result, and identifies the type of behavior state of the user U. The behavior pattern identification unit 46 uses the learned learning model 28A to identify, for example, that the user U is playing golf, shopping, at a movie theater, etc.

制御部30は、行動パターンを記憶部28に記憶させる(ステップS17)。具体的には、記憶制御部48は、ステップS16で特定された行動パターンを所定のフォーマットで記録する。 The control unit 30 stores the behavior pattern in the memory unit 28 (step S17). Specifically, the memory control unit 48 records the behavior pattern identified in step S16 in a predetermined format.

図5は、行動パターンを記憶するフォーマットを説明するための図である。本実施形態では、行動パターンは、例えば、16種類から64種類程度の行動を予測できる場所を予め対応付けられ得る。例えば、「ゴルフ場」であれば「ゴルフをしている」ことが予測でき、「映画館」であれば「映画を見ている」ことが予測でき、「ショッピングセンター」であれば「買い物をしている」ことが予測でき、「公園」であれば「体操をしている」ことが予測できる。本実施形態は、ユーザUの位置情報は、行動状態センサ20のGNSS受信器20Cから取得できるので、数週間程度に渡って、ユーザUが訪れた場所を登録することができる。これにより、本実施形態は、ユーザUのライフスタイルに係る行動パターンの候補に順番に番号を付けることができる。 Figure 5 is a diagram for explaining the format for storing behavioral patterns. In this embodiment, behavioral patterns can be associated in advance with locations that can predict, for example, 16 to 64 types of behavior. For example, a "golf course" can predict "playing golf," a "movie theater" can predict "watching a movie," a "shopping center" can predict "shopping," and a "park" can predict "doing exercises." In this embodiment, the location information of user U can be obtained from the GNSS receiver 20C of the behavioral state sensor 20, so that the locations visited by user U over a period of several weeks can be registered. This allows this embodiment to sequentially number candidates for behavioral patterns related to user U's lifestyle.

図5に示すように、記憶フォーマットF1には、領域D1と、領域D2と、領域D3と、領域D4と、領域D5とを、含み得る。 As shown in FIG. 5, storage format F1 may include areas D1, D2, D3, D4, and D5.

領域D1には、特定された行動パターンをナンバリングされた数値が記憶される。領域D1は、例えば、3バイトで構成される。領域D2には、行動パターン情報を群としてプロットした空間の次元数が記憶される。領域D2は、例えば、1バイトで構成される。この場合、空間は最大で、255次元になり得る。領域D3には、ユーザUの行動パターンであると判定された、行動パターン情報群の行動スコアRが記憶される。行動スコアRは、行動パターンの判定誤差の揺らぎを持ち、行動スコアRが小さい値であるほど、行動パターンの信頼度が高いことを意味する。領域D4は、リザーブ領域である。リザーブ領域の最後の1バイトの領域の最終ビットである領域D5には、行動パターンが日常であるものか、非日常であるものかを示す識別子が記憶される。領域D5には、後述する日常行動の行動パターンである場合には0が記述され、非日常行動の行動パターンである場合には1が記述される。リザーブ領域には、各々の行動パターンが発生したときに、付随的な情報を追加したい場合に使用され得る。リザーブ領域は、例えば、6バイト以上の領域を持ち、N次元(Nは任意の整数)の次元に相当する各数字情報を記述してもよい。 In the area D1, a number numbered to the identified behavior pattern is stored. The area D1 is composed of, for example, 3 bytes. The area D2 stores the number of dimensions of the space in which the behavior pattern information is plotted as a group. The area D2 is composed of, for example, 1 byte. In this case, the space can be up to 255 dimensions. In the area D3, the behavior score R of the behavior pattern information group determined to be the behavior pattern of the user U is stored. The behavior score R has a fluctuation of the judgment error of the behavior pattern, and the smaller the value of the behavior score R, the higher the reliability of the behavior pattern. The area D4 is a reserved area. In the area D5, which is the last bit of the last 1-byte area of the reserved area, an identifier indicating whether the behavior pattern is everyday or non-everyday is stored. In the area D5, 0 is written if the behavior pattern is an everyday behavior pattern described later, and 1 is written if the behavior pattern is an non-everyday behavior pattern. The reserved area can be used when you want to add additional information when each behavior pattern occurs. The reserved area may, for example, have an area of 6 bytes or more and may contain numerical information corresponding to N dimensions (N is any integer).

図3に戻る。制御部30は、他のグループがあるか否かを判定する(ステップS18)。具体的には行動スコア算出部44は、行動スコアを算出すべき、グループ化された行動パターン情報群があるか否かを判定する。他のグループがあると判定された場合(ステップS18;Yes)、ステップS13に進む。他のグループがないと判定された場合(ステップS18;No)、ステップS19に進む。 Returning to FIG. 3, the control unit 30 determines whether or not there are other groups (step S18). Specifically, the behavior score calculation unit 44 determines whether or not there are grouped behavior pattern information sets for which behavior scores should be calculated. If it is determined that there are other groups (step S18; Yes), the process proceeds to step S13. If it is determined that there are no other groups (step S18; No), the process proceeds to step S19.

制御部30は、処理を終了するか否かを判定する(ステップS19)。具体的には、制御部30は、処理を終了する操作を受け付けた場合、及び電源をオフする操作などを受け付けた場合に、処理を終了すると判定する。処理を終了しないと判定された場合(ステップS19;No)、ステップS10に進む。処理を終了すると判定された場合(ステップS19;Yes)、図3の処理を終了する。 The control unit 30 determines whether or not to end the process (step S19). Specifically, the control unit 30 determines to end the process when an operation to end the process, or an operation to turn off the power, etc. is received. If it is determined that the process is not to be ended (step S19; No), the process proceeds to step S10. If it is determined that the process is to be ended (step S19; Yes), the process of FIG. 3 is ended.

上述のとおり、第1実施形態に係る情報処理装置10は、ユーザUの行動状態を検出し、行動状態に応じた行動パターン情報群を多次元空間に生成する。これにより、第1実施形態に係る情報処理装置10は、行動パターン情報群に基づいて、ユーザUの行動パターンを特定することができる。 As described above, the information processing device 10 according to the first embodiment detects the behavioral state of the user U and generates a group of behavioral pattern information corresponding to the behavioral state in a multidimensional space. This allows the information processing device 10 according to the first embodiment to identify the behavioral pattern of the user U based on the group of behavioral pattern information.

[第2実施形態]
次に、第2実施形態について説明する。図6は、第2実施形態に係る情報処理装置の処理の流れの一例を示すフローチャートである。第2実施形態に係る情報処理装置の構成は、図2に示す情報処理装置10と同一の構成なので、説明を省略する。
[Second embodiment]
Next, a second embodiment will be described. Fig. 6 is a flowchart showing an example of a process flow of the information processing device according to the second embodiment. The configuration of the information processing device according to the second embodiment is the same as that of the information processing device 10 shown in Fig. 2, and therefore the description will be omitted.

第2実施形態では、情報処理装置10は、特定されたユーザUの行動パターンが日常的な日常行動であるか、又は非日常的な非日常行動であるか否かを判定する。 In the second embodiment, the information processing device 10 determines whether the identified behavior pattern of the user U is a routine daily behavior or a non-routine non-daily behavior.

図7は、日常行動と、非日常行動とを説明するための図である。 Figure 7 is a diagram to explain daily and non-daily behaviors.

図7において、空間SAは、例えば、同一の行動パターンとしてグループ化された範囲を示す。空間SBは、例えば、中心が空間SAと同じあり、体積が空間SAの60%程度である。 In FIG. 7, space SA indicates, for example, a range grouped as having the same behavioral pattern. Space SB, for example, has the same center as space SA and its volume is about 60% of space SA.

第2実施形態では、空間SBに含まれている行動パターン情報は、行動スコアが第1閾値未満の行動パターンである。第2実施形態では、行動スコアが第1閾値未満の行動パターンを日常行動の行動パターンであると判定する。図7に示す例では、空間SB内の点P1に対応する行動パターンが日常行動の行動パターンと判定される。 In the second embodiment, the behavior pattern information included in the space SB is a behavior pattern whose behavior score is less than a first threshold. In the second embodiment, a behavior pattern whose behavior score is less than the first threshold is determined to be a daily behavior pattern. In the example shown in FIG. 7, the behavior pattern corresponding to point P1 in the space SB is determined to be a daily behavior pattern.

第2実施形態では、空間SAと、空間SBとの間の空間に含まれている行動パターンは、行動スコアが第1閾値以上第2閾値未満の行動パターンである。第2実施形態では、行動スコアが第1閾値以上第2閾値未満の行動パターンを非日常行動の行動パターンであると判定する。図7に示す例では、空間SAと、空間SBとの間の空間内の点P2に対応する行動パターンが非日常行動の行動パターンと判定される。 In the second embodiment, the behavior pattern included in the space between space SA and space SB is a behavior pattern with a behavior score equal to or greater than a first threshold and less than a second threshold. In the second embodiment, a behavior pattern with a behavior score equal to or greater than a first threshold and less than a second threshold is determined to be an extraordinary behavior pattern. In the example shown in FIG. 7, the behavior pattern corresponding to point P2 in the space between space SA and space SB is determined to be an extraordinary behavior pattern.

第2実施形態では、空間SAの外側の空間に含まれている行動パターンは、行動スコアが第2閾値以上の行動パターンである。第2実施形態では、行動パターンが第2閾値以上の行動パターンを、対象外としてユーザの行動パターンとして含めない。 In the second embodiment, the behavior patterns included in the space outside the space SA are behavior patterns whose behavior scores are equal to or greater than the second threshold. In the second embodiment, behavior patterns whose behavior scores are equal to or greater than the second threshold are excluded from the user's behavior patterns.

図6に戻る。図ステップS20からステップS23の処理は、図3に示すステップS10からステップS13の処理と同一の処理なので、説明を省略する。 Returning to FIG. 6, the process from step S20 to step S23 in the figure is the same as the process from step S10 to step S13 shown in FIG. 3, so the explanation is omitted.

制御部30は、行動スコアが第1閾値未満であるか否かを判定する(ステップS24)。具体的には、行動パターン特定部46は、ステップS23で行動スコア算出部44が算出した行動スコアが所定の第1閾値未満であるか否かを判定する。第1閾値未満であると判定された場合(ステップS24;Yes)、ステップS25に進む。第1閾値未満でないと判定された場合(ステップS24;No)、ステップS28に進む。 The control unit 30 determines whether the behavior score is less than the first threshold (step S24). Specifically, the behavior pattern identification unit 46 determines whether the behavior score calculated by the behavior score calculation unit 44 in step S23 is less than a predetermined first threshold. If it is determined that it is less than the first threshold (step S24; Yes), the process proceeds to step S25. If it is determined that it is not less than the first threshold (step S24; No), the process proceeds to step S28.

ステップS24でYesと判定された場合、制御部30は、日常行動の行動パターンを特定する(ステップS25)。具体的には、行動パターン特定部46は、行動スコアが所定の第1閾値未満であった行動パターン情報群に対応する行動をユーザUの日常行動の行動パターンであると特定する。 If the answer to step S24 is Yes, the control unit 30 identifies the behavior pattern of daily behavior (step S25). Specifically, the behavior pattern identification unit 46 identifies the behavior corresponding to the behavior pattern information group whose behavior score is less than a predetermined first threshold as the behavior pattern of daily behavior of the user U.

制御部30は、特定された日常行動の行動パターンの行動状態の種類を識別する(ステップS26)。具体的には、行動パターン特定部46は、行動状態情報取得部40が取得した行動状態情報に基づいて、ユーザUが行った日常行動の行動状態の種類を識別してよい。 The control unit 30 identifies the type of behavioral state of the identified daily behavior pattern (step S26). Specifically, the behavior pattern identification unit 46 may identify the type of behavioral state of the daily behavior performed by the user U based on the behavioral state information acquired by the behavioral state information acquisition unit 40.

制御部30は、日常行動の行動パターンを記憶部28に記憶させる(ステップS27)。具体的には、記憶制御部48は、ステップS25で特定された日常行動の行動パターンを所定のフォーマットで記録する。 The control unit 30 stores the behavior pattern of the daily behavior in the memory unit 28 (step S27). Specifically, the memory control unit 48 records the behavior pattern of the daily behavior identified in step S25 in a predetermined format.

ステップS24でNoと判定された場合、制御部30は、行動スコアの第1閾値以上第2閾値未満であるか否かを判定する(ステップS28)。具体的には、行動パターン特定部46は、ステップS23で行動スコア算出部44が算出した行動スコアが所定の第1閾値以上第2閾値未満であるか否かを判定する。第1閾値以上第2閾値未満であると判定された場合(ステップS28;Yes)、ステップS29に進む。第1閾値以上第2閾値未満でないと判定された場合(ステップS28;No)、ステップS32に進む。 If step S24 is determined as No, the control unit 30 determines whether the behavior score is equal to or greater than the first threshold and less than the second threshold (step S28). Specifically, the behavior pattern identification unit 46 determines whether the behavior score calculated by the behavior score calculation unit 44 in step S23 is equal to or greater than a predetermined first threshold and less than a predetermined second threshold. If it is determined to be equal to or greater than the first threshold and less than the second threshold (step S28; Yes), the process proceeds to step S29. If it is determined not to be equal to or greater than the first threshold and less than the second threshold (step S28; No), the process proceeds to step S32.

ステップS28でYesと判定された場合、制御部30は、非日常行動の行動パターンを特定する(ステップS29)。具体的には、行動パターン特定部46は、行動スコアが所定の第1閾値以上第2閾値満であった行動パターン情報群に対応する行動を非日常行動の行動パターンであると判定する。 If step S28 returns Yes, the control unit 30 identifies a behavior pattern of extraordinary behavior (step S29). Specifically, the behavior pattern identification unit 46 determines that the behavior corresponding to the behavior pattern information group whose behavior score is equal to or greater than a predetermined first threshold and less than a predetermined second threshold is an extraordinary behavior pattern.

制御部30は、特定された非日常行動の行動パターンの行動状態の種類を識別する(ステップS30)。具体的には、行動パターン特定部46は、行動状態情報取得部40が取得した行動状態情報に基づいて、ユーザUが行った非日常行動の行動状態の種類を識別してよい。 The control unit 30 identifies the type of behavioral state of the identified behavior pattern of the non-daily behavior (step S30). Specifically, the behavior pattern identification unit 46 may identify the type of behavioral state of the non-daily behavior performed by the user U based on the behavioral state information acquired by the behavioral state information acquisition unit 40.

制御部30は、非日常行動の行動パターンを記憶部28に記憶させる(ステップS31)。具体的には、記憶制御部48は、ステップS29で特定された非日常行動の行動パターンを所定のフォーマットで記録する。 The control unit 30 stores the behavior pattern of the extraordinary behavior in the memory unit 28 (step S31). Specifically, the memory control unit 48 records the behavior pattern of the extraordinary behavior identified in step S29 in a predetermined format.

ステップS32及びステップ33の処理は、ぞれぞれ、図3に示すステップS18及びステップS19の処理と同一の処理なので、説明を省略する。 The processes in steps S32 and S33 are the same as those in steps S18 and S19 shown in FIG. 3, and therefore will not be described here.

上述のとおり、第2実施形態に係る情報処理装置10は、行動スコアに基づいて、行動パターンが日常行動であるか、非日常行動であるかを判定する。これにより、第2実施形態に係る情報処理装置10は、同じ行動においても日常のルーチンであるのか、新しい行動であるのかを判定することができる。 As described above, the information processing device 10 according to the second embodiment determines whether a behavior pattern is a daily behavior or a non-daily behavior based on the behavior score. This allows the information processing device 10 according to the second embodiment to determine whether the same behavior is a daily routine or a new behavior.

具体的には、第2実施形態における、日常行動および非日常行動の識別は、例えば、平日の通勤時間に発生した行動パターンは、ルーチンによる行動なのか、または意図的にその行動パターンを行ったかなどの興味の有無の判断に使用することができる。例えば、毎日決まった時刻にある駅から別の駅まで通勤している場合、駅に向かって歩く行動は同じ時刻であればルーチンであり、興味を持って起こした能動的な行動ではないとして、統計上その行動パターンのデータを無視して計算するなどすることができる。 Specifically, in the second embodiment, the discrimination between daily and non-daily behaviors can be used to determine whether a behavior pattern that occurs during commuting time on a weekday is a routine behavior or whether the behavior pattern was performed intentionally, and thus whether there is interest. For example, if a person commutes from one station to another at a fixed time every day, walking to the station at the same time is considered to be routine and not an active behavior that is performed out of interest, and the data for that behavior pattern can be ignored in statistical calculations.

[第3実施形態]
次に、図8を用いて、第3実施形態に係る情報処理装置について説明する。図8は、第3実施形態に係る情報処理装置の構成例を示すブロック図である。
[Third embodiment]
Next, an information processing apparatus according to a third embodiment will be described with reference to Fig. 8. Fig. 8 is a block diagram showing an example of the configuration of the information processing apparatus according to the third embodiment.

図8に示すように、情報処理装置10aは、生体センサ32を備える点と、制御部30aが生体情報取得部52及び活性度スコア算出部54を備える点で、図2に示す情報処理装置10とは異なる。 As shown in FIG. 8, the information processing device 10a differs from the information processing device 10 shown in FIG. 2 in that it includes a biosensor 32 and that the control unit 30a includes a bioinformation acquisition unit 52 and an activity score calculation unit 54.

ユーザUの行動には、物理的な動きと共に、興奮度合いなどの生体情報が伴う。そのため、ユーザUの行動パターンを特定する際には、その行動時のユーザUの心理的な状況を考慮することが好ましい。情報処理装置10aは、ユーザUが行動を楽しんでいる度合いを示す活性度スコアを算出する。 The behavior of user U is accompanied by physical movements as well as biological information such as the degree of excitement. Therefore, when identifying the behavioral pattern of user U, it is preferable to take into account the psychological state of user U at the time of the behavior. The information processing device 10a calculates an activity score that indicates the degree to which user U is enjoying the behavior.

生体センサ32は、ユーザUの生体情報を検出するセンサである。生体センサ32は、ユーザUの生体情報を検出可能であれば、任意の位置に設けられてよい。ここでの生体情報は、指紋など不変のものではなく、例えばユーザUの状態に応じて値が変化する情報であることが好ましい。さらに言えば、ここでの生体情報は、ユーザUの自律神経に関する情報、すなわちユーザUの意思にかかわらず値が変化する情報であることが好ましい。具体的には、生体センサ32は、脈波センサ32Aを含み、生体情報として、ユーザUの脈波を検出する。生体センサ32は、ユーザUの脳波を検出する脳波センサを含んでもよい。 The biosensor 32 is a sensor that detects biometric information of the user U. The biosensor 32 may be provided at any position as long as it is capable of detecting the biometric information of the user U. The biometric information here is preferably not unchanging, such as a fingerprint, but information whose value changes depending on the state of the user U, for example. Furthermore, the biometric information here is preferably information relating to the autonomic nerves of the user U, that is, information whose value changes regardless of the will of the user U. Specifically, the biosensor 32 includes a pulse wave sensor 32A, and detects the pulse waves of the user U as biometric information. The biosensor 32 may also include an brain wave sensor that detects brain waves of the user U.

脈波センサ32Aは、ユーザUの脈波を検出するセンサである。脈波センサ32Aは、例えば、発光部と受光部とを備える透過型光電方式のセンサであってよい。この場合、脈波センサ32Aは、例えば、ユーザUの指先を挟んで発光部と受光部とが対峙する構成となっており、指先を透過してきた光を受光部が受光し、脈波の圧力が大きいほど血流が大きくなることを利用して、脈の波形を計測するものであってよい。ただし、脈波センサ32Aは、それに限られず、脈波を検出可能な任意の方式のものであってよい。 Pulse wave sensor 32A is a sensor that detects the pulse wave of user U. Pulse wave sensor 32A may be, for example, a transmission type photoelectric sensor equipped with a light emitting unit and a light receiving unit. In this case, pulse wave sensor 32A may be configured such that the light emitting unit and the light receiving unit face each other across the fingertip of user U, and the light receiving unit receives light that has passed through the fingertip, and measures the pulse waveform by utilizing the fact that the greater the pressure of the pulse wave, the greater the blood flow. However, pulse wave sensor 32A is not limited to this and may be of any type that can detect pulse waves.

生体情報取得部52は、生体センサ32を制御して、生体センサ32に生体情報を検出させる。生体情報取得部52は、生体センサ32が検出した生体情報を取得する。 The biometric information acquisition unit 52 controls the biometric sensor 32 to cause the biometric sensor 32 to detect biometric information. The biometric information acquisition unit 52 acquires the biometric information detected by the biometric sensor 32.

活性度スコア算出部54は、生体情報が取得した生体情報に基づいて、自律神経活性度を算出する。自律神経活性度を算出する方法については、後述する。活性度スコア算出部54は、活性度スコアを算出する。活性度スコア算出部54は、行動スコア算出部44が算出した行動スコアと、行動パターン特定部46が特定した行動パターンと、自律神経活性度に基づいて、活性度スコアを算出する。 The activity score calculation unit 54 calculates the autonomic nerve activity level based on the acquired bio-information. A method for calculating the autonomic nerve activity level will be described later. The activity score calculation unit 54 calculates the activity score. The activity score calculation unit 54 calculates the activity score based on the behavior score calculated by the behavior score calculation unit 44, the behavior pattern identified by the behavior pattern identification unit 46, and the autonomic nerve activity level.

[処理内容]
図9を用いて、第3実施形態に係る情報処理装置10aの処理内容について説明する。図9は、第3実施形態に係る情報処理装置10aの処理の流れの一例を示すフローチャートである。
[Processing content]
The process contents of the information processing device 10a according to the third embodiment will be described with reference to Fig. 9. Fig. 9 is a flowchart showing an example of the process flow of the information processing device 10a according to the third embodiment.

ステップS40の処理は、図3に示すステップS10と同一の処理なので、説明を省略する。 The process of step S40 is the same as step S10 shown in FIG. 3, so the explanation is omitted.

制御部30aは、ユーザUの生体情報を取得する(ステップS41)。具体的には、生体情報取得部52は、生体センサ32の脈波センサ32Aを制御して、ユーザUの脈波情報を取得する。本実施形態では、後述するように、ユーザUの脈波情報を用いて、ユーザUの心理面におけるストレス度、リラックス度、興味度、および集中度の度合いを示す指針となる自律神経活性度を算出する。 The control unit 30a acquires biometric information of the user U (step S41). Specifically, the biometric information acquisition unit 52 controls the pulse wave sensor 32A of the biosensor 32 to acquire pulse wave information of the user U. In this embodiment, as described below, the pulse wave information of the user U is used to calculate an autonomic nerve activity level, which is an indicator of the user U's psychological levels of stress, relaxation, interest, and concentration.

ステップS42からステップS47の処理は、それぞれ、図3に示すステップS11からステップS17の処理と同一の処理なので、説明を省略する。 The processes from step S42 to step S47 are the same as the processes from step S11 to step S17 shown in FIG. 3, so their explanations are omitted.

制御部30aは、活性度スコアを算出する(ステップS48)。具体的には、活性度スコア算出部54は、ステップS41で取得された脈波情報に基づいて、ユーザUの活性度スコアを算出する。 The control unit 30a calculates the activity score (step S48). Specifically, the activity score calculation unit 54 calculates the activity score of the user U based on the pulse wave information acquired in step S41.

図10を用いて、脈波について説明する。図10は、脈波の一例を示すグラフである。図10に示すように、脈波は、所定時間毎にR波WRと呼ばれるピークが現れる波形となる。脈の拍動は、心臓の洞結節にあるペースメーカ細胞の自然発火で生じする。脈拍のリズムは、交感神経と副交感神経の両方の影響を強く受けている。交感神経は、心臓活動を促進させる。副交感神経は、心臓活動を抑制させる。通常、交感神経と、副交感神経とは拮抗して作用する。安静時又はそれに近い状態では、副交感神経が支配的となる。通常、脈拍数は、交感神経の興奮によってアドレナリンが分泌されると増加し、副交感神経の興奮によってアセチルコリンが分泌されると減少する。したがって、自律神経の機能検査は、心電図におけるR-R間隔の変動調べることが有用であるとされている。これは、藤本等の「心電図R-R間隔の変動を用いた自律神経機能検査の正常参考値および標準予測式」(自律神経,30巻2号,1987年,167-173頁)及び早野等の「心拍変動と自律神経機能」(生物物理,28-4,P32-36,1988)に記載されている。R-R間隔とは、図10に示すように、時系列で連続するR波WR同士の間隔である。心拍変動は、信号波形のQPS波の頂点であるR波を脈の1発として測定される。心電図のR波の間隔の変動、つまり図10のR波間を示すR-R間隔の時間間隔の揺らぎが、自律神経指標として用いられている。自律神経指標としてR-R間隔の時間間隔の揺らぎを用いることの妥当性は、多くの医療機関で報告されている。R-R間隔のゆらぎは、安静時に大きくなり、ストレス時には小さくなる。 The pulse wave will be explained using FIG. 10. FIG. 10 is a graph showing an example of a pulse wave. As shown in FIG. 10, the pulse wave has a waveform in which a peak called an R wave WR appears at a predetermined time interval. Pulse pulsation occurs due to spontaneous firing of pacemaker cells in the sinus node of the heart. The pulse rhythm is strongly influenced by both the sympathetic and parasympathetic nerves. The sympathetic nerves promote cardiac activity. The parasympathetic nerves suppress cardiac activity. Normally, the sympathetic nerves and the parasympathetic nerves act in opposition to each other. At rest or in a state close to rest, the parasympathetic nerves dominate. Normally, the pulse rate increases when adrenaline is secreted due to sympathetic nerve stimulation, and decreases when acetylcholine is secreted due to parasympathetic nerve stimulation. Therefore, it is considered useful to examine the fluctuation of the R-R interval in the electrocardiogram in an autonomic nerve function test. This is described in Fujimoto et al.'s "Normal Reference Values and Standard Prediction Formulas for Autonomic Nerve Function Tests Using Fluctuations in Electrocardiogram R-R Intervals" (Autonomic Nerves, Vol. 30, No. 2, 1987, pp. 167-173) and Hayano et al.'s "Heart Rate Fluctuations and Autonomic Nerve Function" (Biophysics, 28-4, pp. 32-36, 1988). The R-R interval is the interval between consecutive R waves WR in a time series, as shown in FIG. 10. Heart rate fluctuations are measured by treating the R wave, which is the peak of the QPS wave in the signal waveform, as one pulse. Fluctuations in the intervals between R waves in an electrocardiogram, that is, the fluctuations in the time intervals of the R-R intervals between R waves in FIG. 10, are used as an autonomic nerve index. The validity of using the fluctuations in the time intervals of the R-R intervals as an autonomic nerve index has been reported by many medical institutions. The fluctuations in the R-R intervals are large when at rest and small when under stress.

R-R間隔の変動には、いくつかの特徴的な揺らぎある。1つは0.1Hz付近に出現する低周波成分であり、血管の血圧のフィードバック調節に伴う交感神経系活動の変調に由来する。もう1つは呼吸に同調した変調であり、呼吸性洞性不整脈を反映する高周波成分である。高周波成分は、呼吸中枢による迷走神経前節ニューロンへの直接干渉と肺の伸展受容体および呼吸による血圧変化の反受容体反射を反映し、主に心臓に影響する副交感神経指標とされている。すなわち、脈波のR-R波間の揺らぎを測定した波形成分のうち、低周波成分のパワースペクトルは交感神経の活性度を示し、高周波成分のパワースペクトルは副交感神経の活性度を示しているといえる。 There are several characteristic fluctuations in the R-R interval. One is a low-frequency component that appears around 0.1 Hz, which originates from the modulation of sympathetic nervous activity accompanying feedback regulation of vascular blood pressure. The other is a high-frequency component that is a modulation synchronized with breathing and reflects respiratory sinus arrhythmia. The high-frequency component reflects direct interference with the preganglionic neurons of the vagus nerve by the respiratory center and the antireceptor reflex of pulmonary stretch receptors and blood pressure changes due to breathing, and is considered to be a parasympathetic nerve index that mainly affects the heart. In other words, among the waveform components that measure the fluctuation between the R-R waves of the pulse wave, the power spectrum of the low-frequency component indicates the activity of the sympathetic nerve, and the power spectrum of the high-frequency component indicates the activity of the parasympathetic nerve.

入力される脈波の揺らぎは、R-R間隔値の微分値で求められる。この場合、R-R間隔の微分値が時間的に等間隔のデータでない場合、活性度スコア算出部54は、三次元スプライン補間などを用いて等間隔な時系列データに変換する。活性度スコア算出部54は、R-R間隔の微分値を、高速フーリエ変換などで直交変換を行う。これにより、活性度スコア算出部54は、脈波のR-R間隔値の微分値の高周波成分のパワースペクトルと、低周波成分のパワースペクトルを算出する。活性度スコア算出部54は、高周波成分のパワースペクトルの総和をRRHFとして算出する。活性度スコア算出部54は、低周波成分のパワースペクトルの総和のRRLFとして算出する。活性度スコア算出部54は、式(1)を用いて、自律神経活性度を算出する。活性度スコア算出部54は、自律神経活性度算出部と呼ばれることもある。 The fluctuation of the input pulse wave is found by the differential value of the R-R interval value. In this case, if the differential value of the R-R interval is not data with equal intervals in time, the activity score calculation unit 54 converts it into equal interval time series data using three-dimensional spline interpolation or the like. The activity score calculation unit 54 performs an orthogonal transformation on the differential value of the R-R interval using a fast Fourier transform or the like. As a result, the activity score calculation unit 54 calculates the power spectrum of the high frequency component and the power spectrum of the low frequency component of the differential value of the R-R interval value of the pulse wave. The activity score calculation unit 54 calculates the sum of the power spectrum of the high frequency component as RRHF. The activity score calculation unit 54 calculates the sum of the power spectrum of the low frequency component as RRLF. The activity score calculation unit 54 calculates the autonomic nerve activity using formula (1). The activity score calculation unit 54 is also called an autonomic nerve activity calculation unit.

Figure 0007537207000001
Figure 0007537207000001

式(1)において、ANは自律神経活性度、RRHFは高周波成分のパワースペクトルの総和、RRLFは低周波成分の低周波成分のパワースペクトルの総和である。C1及びC2は、ANの解の発散を抑えるために規定した固定値である。 In equation (1), AN is the autonomic nerve activity, RRHF is the sum of the power spectrum of the high frequency components, and RRLF is the sum of the power spectrum of the low frequency components. C1 and C2 are fixed values defined to suppress divergence of the AN solution.

活性度スコア算出部54は、式(2)を用いて、活性度スコアを算出する。 The activity score calculation unit 54 calculates the activity score using formula (2).

Figure 0007537207000002
Figure 0007537207000002

式(2)において、NSは活性度スコア、APは行動パターン、Rは行動スコア、ANは自律神経活性度である。すなわち、活性度スコア算出部54は、行動パターンと、行動スコアと、自律神経活性度とをパラメータとして含む関数を用いて、活性度スコアを算出してもよい。 In formula (2), NS is the activity score, AP is the behavior pattern, R is the behavior score, and AN is the autonomic nerve activity level. That is, the activity score calculation unit 54 may calculate the activity score using a function that includes the behavior pattern, the behavior score, and the autonomic nerve activity level as parameters.

また、活性度スコア算出部54は、例えば、学習モデルを用いて、活性度スコアを算出してもよい。学習モデルは、行動パターンと、行動スコアと、自律神経活性度と、活性度スコアとを1つのデータセットとし、複数のデータセットを教師データとして学習して構築されたAIモデルである。この場合、活性度スコア算出部54は、学習済みの学習モデルに行動パターンと、行動スコアと、自律神経活性度とを入力して、活性度スコアを示す
情報を取得して、活性度スコアを算出する。
The activity score calculation unit 54 may also calculate the activity score using, for example, a learning model. The learning model is an AI model constructed by learning a plurality of data sets as teacher data, with the behavior pattern, the behavior score, the autonomic nerve activity, and the activity score as one data set. In this case, the activity score calculation unit 54 inputs the behavior pattern, the behavior score, and the autonomic nerve activity into the learned learning model, acquires information indicating the activity score, and calculates the activity score.

制御部30は、ユーザUに対して活性度スコアを提示する(ステップS49)。具体的には、出力制御部50は、表示部24A及び音声出力部24Bの少なくとも一方を制御して、ユーザUに対して活性度スコアを提示する。 The control unit 30 presents the activity score to the user U (step S49). Specifically, the output control unit 50 controls at least one of the display unit 24A and the audio output unit 24B to present the activity score to the user U.

制御部30は、行動パターンと活性スコアを記憶部28に記憶させる(ステップS50)。具体的には、記憶制御部48は、ステップS46で特定された行動パターンと活性度スコアとを所定のフォーマットで記録する。 The control unit 30 stores the behavior pattern and activity score in the memory unit 28 (step S50). Specifically, the memory control unit 48 records the behavior pattern and activity score identified in step S46 in a predetermined format.

図11は、行動パターンを記憶するフォーマットを説明するための図である。図11に示すように、記憶フォーマットF2は、領域D1aと、領域D2aと、領域D3aと、領域D4aと、領域D5aと、領域D6aとを、含み得る。 Figure 11 is a diagram for explaining the format for storing behavioral patterns. As shown in Figure 11, storage format F2 may include areas D1a, D2a, D3a, D4a, D5a, and D6a.

領域D1aは、特定された行動パターンをナンバリングされた数値が記憶される。領域D1aは、例えば、3バイトで構成される。領域D2aには、行動パターン情報を群としてプロットした空間の次元数が記憶される。領域D2aは、例えば、1バイトで構成される。領域D3aには、ユーザUの行動パターンであると判定された、行動パターン情報群の行動スコアRが記憶される。領域D4aには、自律神経活性度が記憶される。領域D4aは、例えば、2バイトで構成される。領域D5aには、活性度スコアが記憶される。領域D5は、例えば、2バイトで構成されている。領域D6aは、リザーブ領域である。 Area D1a stores a numbered value for the identified behavior pattern. Area D1a may be composed of, for example, 3 bytes. Area D2a stores the number of dimensions of the space in which the behavior pattern information is plotted as a group. Area D2a may be composed of, for example, 1 byte. Area D3a stores the behavior score R of the behavior pattern information group determined to be the behavior pattern of user U. Area D4a stores the autonomic nerve activity level. Area D4a may be composed of, for example, 2 bytes. Area D5a stores the activity level score. Area D5 may be composed of, for example, 2 bytes. Area D6a is a reserved area.

ステップS51及びステップS52の処理は、それぞれ、図3に示すステップS18及びステップS19の処理と同一の処理なので説明を省略する。 The processes in steps S51 and S52 are the same as those in steps S18 and S19 shown in FIG. 3, and therefore will not be described here.

上述のとおり、第3実施形態に係る情報処理装置10aは、ユーザUの行動パターンとして特定された行動を行っていた際の、ユーザがその行動を楽しんでいた度合いを示す活性度スコアを算出することができる。これにより、第3実施形態に係る情報処理装置10aは、ユーザUの行動パターンをより適切に特定することができる。 As described above, the information processing device 10a according to the third embodiment can calculate an activity score that indicates the degree to which the user enjoyed an action identified as the user U's behavior pattern when the user was performing that action. This allows the information processing device 10a according to the third embodiment to more appropriately identify the behavior pattern of the user U.

[第4実施形態]
次に、図12を用いて、第4実施形態に係る情報処理装置について説明する。図12は、第4実施形態に係る情報処理装置の構成例を示すブロック図である。
[Fourth embodiment]
Next, an information processing apparatus according to a fourth embodiment will be described with reference to Fig. 12. Fig. 12 is a block diagram showing an example of the configuration of the information processing apparatus according to the fourth embodiment.

図12に示すように、情報処理装置10bは、記憶部28aが補正データ28Cを記憶している点と、制御部30bが活性度スコア補正部56を備える点で、図8に示す情報処理装置10aとは異なる。 As shown in FIG. 12, the information processing device 10b differs from the information processing device 10a shown in FIG. 8 in that the memory unit 28a stores correction data 28C and the control unit 30b includes an activity score correction unit 56.

国又は地域などが変われば、同じ行動パターンであっても感性などの違いにより感じ方に違いが生じることもあり得る。情報処理装置10bは、国又は地域に応じて、活性度スコアを補正する。 When the country or region changes, the same behavioral pattern may be perceived differently due to differences in sensibility, etc. The information processing device 10b corrects the activity score depending on the country or region.

補正データ28Cは、活性度スコア補正部56が活性度スコアを補正する際に用いるデータである。補正データ28Cは、例えば、行動パターンと、国又は地域などに応じて活性度スコアに乗算する補正係数とが対応付けられているデータである。 The correction data 28C is data used by the activity score correction unit 56 when correcting the activity score. The correction data 28C is data that associates, for example, a behavioral pattern with a correction coefficient that is multiplied by the activity score depending on the country or region.

図13は、補正データの一例を説明するための図である。図13には、行動パターンとして、行動パターンMP1と、行動パターンMP2と、行動パターンMP3とが示されている。また、国又は地域として、エリアA1と、エリアA2と、エリアA3とが示されている。図13では、行動パターンは、行動パターンMP1などのように概念的に示しているが、実施には、「ゴルフをする」などにように具体的に示される。また、国又は地域は、エリアA1などのように概念的に示しているが、実際には、日本などの具体的な国名や、東京などの具体的な地域名が示される。 Figure 13 is a diagram for explaining an example of correction data. Figure 13 shows action patterns MP1, MP2, and MP3 as action patterns. Also, areas A1, A2, and A3 are shown as countries or regions. In Figure 13, action patterns are shown conceptually, such as action pattern MP1, but in practice they are shown specifically, such as "playing golf." Also, countries or regions are shown conceptually, such as area A1, but in practice they are shown as specific country names, such as Japan, or specific region names, such as Tokyo.

図13に示すように、エリアA1では、行動パターンMP1の活性度スコアには0.5を乗じ、行動パターンMP2の活性度スコアには0.2を乗じ、行動パターンMP3の活性度スコアには0.1を乗じる。エリアA2では、行動パターンMP1の活性度スコアには0.2を乗じ、行動パターンMP2の活性度スコアには0.6を乗じ、行動パターンMP3の活性度スコアには0.9を乗じる。エリアA3では、行動パターンMP1の活性度スコアには0.3を乗じ、行動パターンMP2の活性度スコアには0.7を乗じ、行動パターンMP3の活性度スコアには0.5を乗じる。図13に示すように、国又は地域が異なれば、行動パターンが同じであっても、活性度スコアに乗じる補正係数は変化し得る。補正係数は、各国又は地域ごとに予め想定し得る行動パターンについてアンケート調査を行うことで生成される。なお、図13では、エリアA1からエリアA3のように地域ごとに補正係数を分類しているが、地域以外の所定の条件で、補正係数を分類してもよい。例えば、対象とする行動パターンの種類によっては、年齢や性別などで補正係数を分類してもよい。 As shown in FIG. 13, in area A1, the activity score of behavior pattern MP1 is multiplied by 0.5, the activity score of behavior pattern MP2 is multiplied by 0.2, and the activity score of behavior pattern MP3 is multiplied by 0.1. In area A2, the activity score of behavior pattern MP1 is multiplied by 0.2, the activity score of behavior pattern MP2 is multiplied by 0.6, and the activity score of behavior pattern MP3 is multiplied by 0.9. In area A3, the activity score of behavior pattern MP1 is multiplied by 0.3, the activity score of behavior pattern MP2 is multiplied by 0.7, and the activity score of behavior pattern MP3 is multiplied by 0.5. As shown in FIG. 13, if the country or region is different, the correction coefficient multiplied by the activity score may change even if the behavior pattern is the same. The correction coefficient is generated by conducting a questionnaire survey on possible behavior patterns for each country or region. In FIG. 13, the correction coefficients are classified by area, such as area A1 to area A3, but the correction coefficients may be classified by a predetermined condition other than area. For example, depending on the type of behavioral pattern to be targeted, the correction coefficients may be classified by age, gender, or the like.

活性度スコア補正部56は、活性度スコア算出部54が算出した活性度スコアを補正する。具体的には、活性度スコア補正部56は、行動パターンが特定された国又は地域に基づいて、補正データ28Cを用いて、活性度スコアを補正する。 The activity score correction unit 56 corrects the activity score calculated by the activity score calculation unit 54. Specifically, the activity score correction unit 56 corrects the activity score using correction data 28C based on the country or region in which the behavior pattern is identified.

[処理内容]
図14を用いて、第4実施形態に係る情報処理装置10bの処理内容について説明する。図14は、第4実施形態に係る情報処理装置10bの処理の流れの一例を示すフローチャートである。
[Processing content]
The process of the information processing device 10b according to the fourth embodiment will be described with reference to Fig. 14. Fig. 14 is a flowchart showing an example of the process flow of the information processing device 10b according to the fourth embodiment.

ステップS60からステップS68の処理は、それぞれ、図9に示すステップS40からステップS48の処理と同一の処理なので、説明を省略する。 The processes from step S60 to step S68 are the same as the processes from step S40 to step S48 shown in FIG. 9, so their explanations are omitted.

制御部30bは、活性度スコアを補正する(ステップS69)。具体的には、活性度スコア補正部56は、行動パターン特定部46によって特定された位置情報に基づいて、補正データ28Cを用いて、活性度スコア算出部54が算出した活性度スコアを補正する。 The control unit 30b corrects the activity score (step S69). Specifically, the activity score correction unit 56 corrects the activity score calculated by the activity score calculation unit 54 using the correction data 28C based on the location information identified by the behavior pattern identification unit 46.

制御部30bは、ユーザUに対して補正後の活性度スコアを提示する(ステップS70)。具体的には、出力制御部50は、表示部24A及び音声出力部24Bの少なくとも一方を制御して、ユーザUに対して補正後の活性度スコアを提示する。 The control unit 30b presents the corrected activity score to the user U (step S70). Specifically, the output control unit 50 controls at least one of the display unit 24A and the audio output unit 24B to present the corrected activity score to the user U.

制御部30bは、行動パターンと補正後の活性スコアを記憶部28に記憶させる(ステップS71)。具体的には、記憶制御部48は、ステップS66で特定された行動パターンと補正後の活性度スコアとを所定のフォーマットで記録する。 The control unit 30b stores the behavior pattern and the corrected activity score in the memory unit 28 (step S71). Specifically, the memory control unit 48 records the behavior pattern identified in step S66 and the corrected activity score in a predetermined format.

ステップS72及びステップS73の処理は、それぞれ、図9に示すステップS51及びステップS52の処理と同一の処理なので、説明を省略する。 The processing in steps S72 and S73 is the same as the processing in steps S51 and S52 shown in FIG. 9, and therefore will not be described.

上述のとおり、第4実施形態に係る情報処理装置10bは、国又は地域に応じて活性度スコアに補正係数を乗ずることにより、活性度スコアを補正する。これにより、第4実施形態に係る情報処理装置10bは、国又は地域に応じてより適切に活性度スコアを補正することができる。 As described above, the information processing device 10b according to the fourth embodiment corrects the activity score by multiplying the activity score by a correction coefficient depending on the country or region. This allows the information processing device 10b according to the fourth embodiment to more appropriately correct the activity score depending on the country or region.

[第4実施形態の変形例]
次に、第4実施形態の変形例について説明する。第4実施形態では、図13に示すように、行動パターンとエリアとが対応付けられた補正データ28Cを用いて、活性度スコアを補正する。しかしながら、補正データには、行動パターンが対応付けられていなくてもよい。すなわち、エリアごとに専用の補正係数が定められていてもよい。この場合、活性度スコア補正部56は、活性度スコア算出部54が算出した自律神経活性度を補正データに基づいて補正するようにすればよい。この場合、活性度スコア補正部56は、自律神経活性度補正部とも呼ばれ得る。
[Modification of the fourth embodiment]
Next, a modified example of the fourth embodiment will be described. In the fourth embodiment, as shown in FIG. 13, the activity score is corrected using correction data 28C in which a behavior pattern is associated with an area. However, the correction data does not have to be associated with a behavior pattern. In other words, a dedicated correction coefficient may be defined for each area. In this case, the activity score correction unit 56 may correct the autonomic nerve activity calculated by the activity score calculation unit 54 based on the correction data. In this case, the activity score correction unit 56 may also be called an autonomic nerve activity correction unit.

図15は、補正データの一例を説明するための図である。図15に示すように、補正データ28Caには、エリアごとに補正係数が定められている。図15に示す例では、エリアA1の補正係数は0.5、エリアA2の補正係数は0.2、及びエリアA3の補正係数は0.3である。 Figure 15 is a diagram illustrating an example of correction data. As shown in Figure 15, in the correction data 28Ca, a correction coefficient is defined for each area. In the example shown in Figure 15, the correction coefficient for area A1 is 0.5, the correction coefficient for area A2 is 0.2, and the correction coefficient for area A3 is 0.3.

活性度スコア補正部56は、例えば、ユーザUの自律神経活性度が算出された地域がエリアA1であると判定された場合、算出された自律神経活性度に0.5を乗ずることで、自律神経の活性度を補正する。これにより、第4実施形態の変形例では、各地域に応じて自律神経の活性度をより適切に算出することができる。 For example, when it is determined that the area in which the autonomic nerve activity of user U is calculated is area A1, the activity score correction unit 56 corrects the autonomic nerve activity by multiplying the calculated autonomic nerve activity by 0.5. This makes it possible to more appropriately calculate the autonomic nerve activity for each area in the modified example of the fourth embodiment.

[第5実施形態]
次に、第5実施形態について説明する。図16は、第5実施形態に係る情報処理装置の処理の流れの一例を示すフローチャートである。第5実施形態に係る情報処理装置の構成は、図2に示す情報処理装置10bと同一の構成なので、説明を省略する。
[Fifth embodiment]
Next, a fifth embodiment will be described. Fig. 16 is a flowchart showing an example of a process flow of the information processing device according to the fifth embodiment. The configuration of the information processing device according to the fifth embodiment is the same as that of the information processing device 10b shown in Fig. 2, and therefore the description will be omitted.

第5実施形態では、情報処理装置10bは、特定されたユーザUの日常行動の行動パターンと、非日常行動の行動パターンについて、それぞれ独立に活性度スコアを算出する。また、第5実施形態では、情報処理装置10bは、算出されたユーザUの日常行動の行動パターンの活性度スコアと、非日常行動の行動パターンの活性度スコアについて、それぞれ独立に補正する。 In the fifth embodiment, the information processing device 10b calculates an activity score independently for the identified daily behavior pattern and non-daily behavior pattern of the user U. Also, in the fifth embodiment, the information processing device 10b independently corrects the calculated activity score for the daily behavior pattern and the non-daily behavior pattern of the user U.

ステップS80からステップS84の処理は、それぞれ、図9に示すステップS40からステップS44の処理と同一の処理なので、説明を省略する。 The processes from step S80 to step S84 are the same as the processes from step S40 to step S44 shown in FIG. 9, so their explanations are omitted.

ステップS85からステップS87の処理は、ぞれぞれ、図6に示すステップS24からステップS26の処理と同一の処理なので、説明を省略する。 The processes from step S85 to step S87 are the same as the processes from step S24 to step S26 shown in FIG. 6, so their explanation will be omitted.

制御部30bは、日常行動の行動パターンの活性度スコアを算出する(ステップS88)。具体的には、活性度スコア算出部54は、ステップS81で取得された脈波情報に基づいて、ユーザUの日常行動の行動パターンの活性度スコアを算出する。 The control unit 30b calculates the activity score of the behavior pattern of daily behavior (step S88). Specifically, the activity score calculation unit 54 calculates the activity score of the behavior pattern of daily behavior of the user U based on the pulse wave information acquired in step S81.

制御部30bは、日常行動の行動パターンの活性度スコアを補正する(ステップS89)。具体的には、活性度スコア補正部56は、行動パターン特定部46によって特定された位置情報に基づいて、補正データ28Cを用いて、活性度スコア算出部54が算出した日常行動の行動パターンの活性度スコアを補正する。 The control unit 30b corrects the activity score of the behavior pattern of daily behavior (step S89). Specifically, the activity score correction unit 56 corrects the activity score of the behavior pattern of daily behavior calculated by the activity score calculation unit 54 using the correction data 28C based on the location information identified by the behavior pattern identification unit 46.

制御部30bは、ユーザUに対して補正後の日常行動の行動パターンの活性度スコアを提示する(ステップS90)。具体的には、出力制御部50は、表示部24A及び音声出力部24Bの少なくとも一方を制御して、ユーザUに対して補正後の活性度スコアを提示する。 The control unit 30b presents the activity score of the daily activity pattern after the correction to the user U (step S90). Specifically, the output control unit 50 controls at least one of the display unit 24A and the audio output unit 24B to present the activity score after the correction to the user U.

制御部30bは、日常行動の行動パターンと補正後の活性スコアを記憶部28に記憶させる(ステップS91)。具体的には、記憶制御部48は、ステップS66で特定された日常行動の行動パターンと補正後の活性度スコアとを所定のフォーマットで記録する。 The control unit 30b stores the daily behavior pattern and the corrected activity score in the memory unit 28 (step S91). Specifically, the memory control unit 48 records the daily behavior pattern identified in step S66 and the corrected activity score in a predetermined format.

ステップS85でNoと判定された場合、ステップS92に進む。ステップS92からステップS94の処理は、それぞれ、図6に示すステップS28からステップS30の処理と同一の処理なので、説明を省略する。 If step S85 returns No, the process proceeds to step S92. Steps S92 to S94 are the same as steps S28 to S30 shown in FIG. 6, and therefore will not be described here.

制御部30bは、非日常行動の行動パターンの活性度スコアを算出する(ステップS95)。具体的には、活性度スコア算出部54は、ステップS81で取得された脈波情報に基づいて、ユーザUの非日常行動の行動パターンの活性度スコアを算出する。 The control unit 30b calculates the activity score of the behavior pattern of non-daily behavior (step S95). Specifically, the activity score calculation unit 54 calculates the activity score of the behavior pattern of non-daily behavior of the user U based on the pulse wave information acquired in step S81.

制御部30bは、非日常行動の行動パターンの活性度スコアを補正する(ステップS96)。具体的には、活性度スコア補正部56は、行動パターン特定部46によって特定された位置情報に基づいて、補正データ28Cを用いて、活性度スコア算出部54が算出した非日常行動の行動パターンの活性度スコアを補正する。 The control unit 30b corrects the activity score of the behavior pattern of non-daily behavior (step S96). Specifically, the activity score correction unit 56 corrects the activity score of the behavior pattern of non-daily behavior calculated by the activity score calculation unit 54 using the correction data 28C based on the location information identified by the behavior pattern identification unit 46.

制御部30bは、ユーザUに対して補正後の非日常行動の行動パターンの活性度スコアを提示する(ステップS97)。具体的には、出力制御部50は、表示部24A及び音声出力部24Bの少なくとも一方を制御して、ユーザUに対して補正後の活性度スコアを提示する。 The control unit 30b presents the corrected activity score of the behavior pattern of the non-daily behavior to the user U (step S97). Specifically, the output control unit 50 controls at least one of the display unit 24A and the audio output unit 24B to present the corrected activity score to the user U.

制御部30bは、非日常行動の行動パターンと補正後の活性スコアを記憶部28に記憶させる(ステップS98)。具体的には、記憶制御部48は、ステップS66で特定された非日常行動の行動パターンと補正後の活性度スコアとを所定のフォーマットで記録する。 The control unit 30b stores the behavior pattern of the extraordinary behavior and the corrected activity score in the memory unit 28 (step S98). Specifically, the memory control unit 48 records the behavior pattern of the extraordinary behavior identified in step S66 and the corrected activity score in a predetermined format.

ステップS99及びステップS100の処理は、それぞれ、図9に示すステップS51及びステップS52の処理と同一の処理なので、説明を省略する。 The processes in steps S99 and S100 are the same as those in steps S51 and S52 shown in FIG. 9, and therefore will not be described here.

上述のとおり、第5実施形態に係る情報処理装置10bは、日常行動の行動パターンと、非日常行動の行動パターンとして特定された行動を行っていた際の活性度スコアをそれぞれ独立に算出することができる。これにより、第3実施形態に係る情報処理装置10aは、ユーザUの行動パターンをより適切に特定することができる。 As described above, the information processing device 10b according to the fifth embodiment can independently calculate the activity score when the user is performing a behavior pattern identified as a daily behavior and a non-daily behavior. This allows the information processing device 10a according to the third embodiment to more appropriately identify the behavior pattern of the user U.

また、第5実施形態に係る情報処理装置10bは、国又は地域に応じて活性度スコアに補正係数を乗ずることにより、日常行動の行動パターンの活性度スコアと、非日常行動の行動パターンの活性度スコアを補正する。これにより、第5実施形態に係る情報処理装置10bは、国又は地域に応じてより適切に活性度スコアを補正することができる。 In addition, the information processing device 10b according to the fifth embodiment corrects the activity scores of the behavior patterns of daily behavior and the activity scores of the behavior patterns of non-daily behavior by multiplying the activity scores by a correction coefficient depending on the country or region. This allows the information processing device 10b according to the fifth embodiment to more appropriately correct the activity scores depending on the country or region.

[第6実施形態]
次に、図17を用いて、第6実施形態に係る情報処理装置について説明する。図17は、第6実施形態に係る情報処理装置の構成例を示すブロック図である。
Sixth Embodiment
Next, an information processing device according to a sixth embodiment will be described with reference to Fig. 17. Fig. 17 is a block diagram showing an example of the configuration of the information processing device according to the sixth embodiment.

図17に示すように、情報処理装置10cは、記憶部28bが履歴データ28Dを記憶している点と、制御部30cが履歴データ取得部58と、学習部60とを備える点で、図8に示す情報処理装置10aとは異なる。 As shown in FIG. 17, the information processing device 10c differs from the information processing device 10a shown in FIG. 8 in that the memory unit 28b stores history data 28D and the control unit 30c includes a history data acquisition unit 58 and a learning unit 60.

趣味や趣向はユーザごとに異なることがあるため、同じ行動を行っている場合でも、活性度スコアの値は、ユーザごとに異なることもあり得る。第6実施形態に係る情報処理装置10cは、ユーザごとにカスタマイズされた学習済みモデルを用いて、活性スコアを算出する。 Since hobbies and interests may differ from user to user, the activity score value may differ from user to user even when the same behavior is being performed. The information processing device 10c according to the sixth embodiment calculates the activity score using a trained model customized for each user.

履歴データ28Dは、活性度スコアの履歴に関するデータである。履歴データ28Dは、ユーザごとに所定期間における、活性度スコアの順位に関する情報を含み得る。具体的には、履歴データ28Dは、所定期間における活性度スコアが所定よりも高い行動パターンの情報を含み得る。所定期間は、例えば、3カ月であるが、これに限定されない。 History data 28D is data related to the history of activity scores. History data 28D may include information regarding the ranking of activity scores for each user over a specified period of time. Specifically, history data 28D may include information on behavioral patterns that result in activity scores higher than a specified value over a specified period of time. The specified period is, for example, three months, but is not limited to this.

図18Aから図18Cは、履歴データ28Dの一例を説明するための図である。図18Aから図18Cに示すように、履歴データ28Dにおいては、順位と、行動パターンと、行動スコアと、活性度スコアとが対応付けられている。図18Aは、ユーザU1の履歴データの一例である。図18Bは、ユーザU2の履歴データの一例である。図18Cは、ユーザU3の履歴データの一例である。図18Aから図18Cには、それぞれ、ユーザU1からユーザU3の所定期間における活性度スコアが高かった行動パターンの1位から5位までが示されている。 Figures 18A to 18C are diagrams illustrating an example of history data 28D. As shown in Figures 18A to 18C, in history data 28D, rankings, behavioral patterns, behavior scores, and activity scores are associated with each other. Figure 18A is an example of history data for user U1. Figure 18B is an example of history data for user U2. Figure 18C is an example of history data for user U3. Figures 18A to 18C show the behavior patterns with the highest activity scores for users U1 to U3 in a specified period, ranked 1st to 5th, respectively.

図18Aに示すように、ユーザU1の1位は、行動スコアが10、活性度スコアが99の行動パターンMP4である。ユーザU1の2位は、行動スコアが9、活性度スコアが85の行動パターンMP3である。ユーザU1の3位は、行動スコアが8、活性度スコアが80の行動パターンMP1である。ユーザU1の4位は、行動スコアが7、活性度スコアが58の行動パターンMP9である。ユーザU1の5位は、行動スコアが7、活性度スコアが53の行動パターンMP3である。 As shown in FIG. 18A, user U1's first place is behavior pattern MP4 with a behavior score of 10 and an activity score of 99. User U1's second place is behavior pattern MP3 with a behavior score of 9 and an activity score of 85. User U1's third place is behavior pattern MP1 with a behavior score of 8 and an activity score of 80. User U1's fourth place is behavior pattern MP9 with a behavior score of 7 and an activity score of 58. User U1's fifth place is behavior pattern MP3 with a behavior score of 7 and an activity score of 53.

図18Bに示すように、ユーザU2の1位は、行動スコアが8、活性度スコアが90の行動パターンMP4である。ユーザU2の2位は、行動スコアが7、活性度スコアが88の行動パターンMP3である。ユーザU2の3位は、行動スコアが8、活性度スコアが79の行動パターンMP1である。ユーザU2の4位は、行動スコアが9、活性度スコアが51の行動パターンMP8である。ユーザU2の5位は、行動スコアが9、活性度スコアが49の行動パターンMP3である。 As shown in FIG. 18B, the first place for user U2 is behavior pattern MP4 with a behavior score of 8 and an activity score of 90. The second place for user U2 is behavior pattern MP3 with a behavior score of 7 and an activity score of 88. The third place for user U2 is behavior pattern MP1 with a behavior score of 8 and an activity score of 79. The fourth place for user U2 is behavior pattern MP8 with a behavior score of 9 and an activity score of 51. The fifth place for user U2 is behavior pattern MP3 with a behavior score of 9 and an activity score of 49.

図18Cに示すように、ユーザU3の1位は、行動スコアが10、活性度スコアが89の行動パターンMP7である。ユーザU3の2位は、行動スコアが6、活性度スコアが71の行動パターンMP2である。ユーザU3の3位は、行動スコアが7、活性度スコアが68の行動パターンMP9である。ユーザU3の4位は、行動スコアが8、活性度スコアが65の行動パターンMP4である。ユーザU3の5位は、行動スコアが9、活性度スコアが57の行動パターンMP3である。 As shown in FIG. 18C, user U3's first place is behavior pattern MP7 with a behavior score of 10 and an activity score of 89. User U3's second place is behavior pattern MP2 with a behavior score of 6 and an activity score of 71. User U3's third place is behavior pattern MP9 with a behavior score of 7 and an activity score of 68. User U3's fourth place is behavior pattern MP4 with a behavior score of 8 and an activity score of 65. User U3's fifth place is behavior pattern MP3 with a behavior score of 9 and an activity score of 57.

図18Aから図18Cに示すように、同じ行動パターンであってもユーザに応じて活性度スコアの高い行動パターンは異なり、活性度スコアには個人差が存在する。 As shown in Figures 18A to 18C, even for the same behavior pattern, the behavior pattern with a high activity score varies depending on the user, and there are individual differences in activity scores.

履歴データ取得部58は、記憶部28cから履歴データ28Dを取得する。具体的には、履歴データ取得部58は、活性度スコアの算出対象となるユーザの履歴データ28Dを取得する。 The history data acquisition unit 58 acquires the history data 28D from the memory unit 28c. Specifically, the history data acquisition unit 58 acquires the history data 28D of the user for whom the activity score is to be calculated.

学習部60は、学習用データに基づいて、機械学習による学習によりユーザの活性度スコアを算出するための学習済みモデルを生成する。本実施形態では、学習部60は、例えば、履歴データ取得部58が取得した履歴データ28Dに基づいて、活性度スコアを算出するための学習済みモデルを生成する。学習部60は、例えば、活性度スコアを算出する学習済みモデルとしてDNN(Deep Neural Network)の重みを学習する。学習部60は、例えば、ディープラーニングなどの周知の機械学習の方法を用いて学習すればよい。学習部60は、例えば、学習用データが更新されるごとに、学習済みモデルを更新してもよい。 The learning unit 60 generates a trained model for calculating a user's activity score by learning through machine learning based on the learning data. In this embodiment, the learning unit 60 generates a trained model for calculating the activity score based on, for example, the history data 28D acquired by the history data acquisition unit 58. The learning unit 60 learns, for example, the weights of a DNN (Deep Neural Network) as a trained model for calculating the activity score. The learning unit 60 may learn using, for example, a well-known machine learning method such as deep learning. The learning unit 60 may update the trained model, for example, every time the learning data is updated.

図19を用いて、第6実施形態に係る学習処理について説明する。図19は、第6実施形態に係る学習処理の流れの一例を示すフローチャートである。 The learning process according to the sixth embodiment will be described with reference to FIG. 19. FIG. 19 is a flowchart showing an example of the flow of the learning process according to the sixth embodiment.

制御部30cは、学習用データを取得する(ステップS110)。具体的には、履歴データ取得部58は、記憶部28bから活性度スコアの算出対象となるユーザの所定期間の履歴データ28Dを取得する。履歴データ取得部58が取得する履歴データ28Dには、少なくとも順位と、行動パターンと、行動スコアと、活性度スコアに関する情報が含まれ得る。履歴データ取得部58は、例えば、過去3カ月の1位から1000位までの履歴データ28Dを取得する。 The control unit 30c acquires learning data (step S110). Specifically, the history data acquisition unit 58 acquires history data 28D for a predetermined period of time of the user for whom the activity score is to be calculated from the memory unit 28b. The history data 28D acquired by the history data acquisition unit 58 may include information on at least the ranking, the behavior pattern, the behavior score, and the activity score. The history data acquisition unit 58 acquires, for example, history data 28D from 1st to 1000th place for the past three months.

制御部30cは、学習処理を実行する(ステップS111)。具体的には、学習部60は、履歴データ取得部58が取得した履歴データ28Dを用いて、ユーザの活性度スコアを算出するための学習済みモデルを機械学習により学習して生成する。より具体的には、学習部60は、行動パターンと、行動スコアと、自律神経活性度と、活性度スコアとを1つのデータセットとし、複数(例えば、1000個)のデータセットを教師データとして学習して学習済みモデルを生成する。学習部60は、例えば、活性度スコアの算出対象となるユーザごとに学習済みモデルを生成する。すなわち、本実施形態では、ユーザごとにカスタマイズされた学習済みモデルを生成する。 The control unit 30c executes a learning process (step S111). Specifically, the learning unit 60 uses the history data 28D acquired by the history data acquisition unit 58 to learn and generate a learned model for calculating the user's activity score by machine learning. More specifically, the learning unit 60 generates a learned model by treating the behavior pattern, behavior score, autonomic nerve activity, and activity score as one data set, and learning from multiple (e.g., 1,000) data sets as teacher data. The learning unit 60 generates, for example, a learned model for each user for whom the activity score is to be calculated. That is, in this embodiment, a learned model customized for each user is generated.

制御部30cは、学習済みモデルを記憶する(ステップS112)。具体的には、学習部60は、生成した学習済みモデルを記憶部28cに記憶する。 The control unit 30c stores the trained model (step S112). Specifically, the learning unit 60 stores the generated trained model in the memory unit 28c.

[処理内容]
図20を用いて、第6実施形態に係る情報処理装置10cの処理内容について説明する。図20は、第6実施形態に係る情報処理装置10cの処理の流れの一例を示すフローチャートである。
[Processing content]
The process of the information processing device 10c according to the sixth embodiment will be described with reference to Fig. 20. Fig. 20 is a flowchart showing an example of the process flow of the information processing device 10c according to the sixth embodiment.

ステップS120からステップS127の処理は、それぞれ、図9に示すステップS40からステップS47の処理と同一の処理なので、説明を省略する。 The processes from step S120 to step S127 are the same as the processes from step S40 to step S47 shown in FIG. 9, so their explanation is omitted.

制御部30cは、ユーザに応じた学習済みモデルに基づいて、活性度スコアを算出する(ステップS128)。具体的には、活性度スコア算出部54は、ユーザに応じてカスタマイズされた学習済みモデルを用いて、ユーザの活性度スコアを算出する。 The control unit 30c calculates the activity score based on the trained model for the user (step S128). Specifically, the activity score calculation unit 54 calculates the activity score for the user using the trained model customized for the user.

ステップS129からステップS132の処理は、それぞれ、図9に示すステップS49からステップS52の処理と同一の処理なので、説明を省略する。 The processes from step S129 to step S132 are the same as the processes from step S49 to step S52 shown in FIG. 9, so their explanation will be omitted.

上述のとおり、第6実施形態に係る情報処理装置10cは、ユーザU1からユーザU3のそれぞれのユーザごとに活性度スコアの履歴に応じてカスタマイズして生成された学習済みモデルを用いて、ユーザU1からユーザU3の活性スコアを算出する。これにより、第6実施形態に係る情報処理装置10cは、ユーザの感性に合わせ、より適切に活性度スコアを算出することができる。 As described above, the information processing device 10c according to the sixth embodiment calculates the activity scores of users U1 to U3 using a trained model that is customized and generated according to the activity score history for each of users U1 to U3. This allows the information processing device 10c according to the sixth embodiment to calculate the activity scores more appropriately in accordance with the sensibilities of the users.

[第7実施形態]
図21を用いて、第7実施形態に係る情報処理システムについて説明する。図21は、第7実施形態に係る情報処理システムの構成例を説明するための図である。
[Seventh embodiment]
An information processing system according to the seventh embodiment will be described with reference to Fig. 21. Fig. 21 is a diagram for explaining an example of the configuration of the information processing system according to the seventh embodiment.

図21に示すように、第7実施形態に係る情報処理システム1は、複数の情報処理装置10cと、サーバ装置100と、を含む。情報処理装置10cと、サーバ装置100とは、ネットワークN(例えば、インターネット)を介して、通信可能に接続されている。すなわち、第7実施形態に係る情報処理システム1は、第6実施形態に係る情報処理装置10cと、サーバ装置100とが通信可能に接続された構成を有している。 As shown in FIG. 21, the information processing system 1 according to the seventh embodiment includes a plurality of information processing devices 10c and a server device 100. The information processing devices 10c and the server device 100 are communicatively connected via a network N (e.g., the Internet). That is, the information processing system 1 according to the seventh embodiment has a configuration in which the information processing devices 10c according to the sixth embodiment and the server device 100 are communicatively connected.

上述の第6実施形態は、ユーザごとに活性度スコアの履歴に応じてカスタマイズして生成された学習済みモデルを用いて、ユーザの活性度を算出する。第7実施形態では、サーバ装置100が複数のユーザの履歴データを共有データとして記憶することにより、活性度スコアと行動パターンの傾向が近似している複数のユーザの履歴データに基づいて、学習済みモデルを生成して、ユーザの活性度を算出する。 In the sixth embodiment described above, a trained model is used to calculate the activity level of a user, which is customized and generated for each user according to the activity score history. In the seventh embodiment, the server device 100 stores the history data of multiple users as shared data, and generates a trained model based on the history data of multiple users whose activity scores and behavioral pattern trends are similar to each other to calculate the activity level of the user.

図22を用いて、第7実施形態に係るサーバ装置の構成について説明する。図22は、第7実施形態に係るサーバ装置の構成例を示すブロック図である。 The configuration of the server device according to the seventh embodiment will be described with reference to FIG. 22. FIG. 22 is a block diagram showing an example of the configuration of the server device according to the seventh embodiment.

図22に示すように、サーバ装置100は、通信部110と、制御部120と、記憶部130と、を備える。サーバ装置100は、いわゆるクラウドサーバである。 As shown in FIG. 22, the server device 100 includes a communication unit 110, a control unit 120, and a storage unit 130. The server device 100 is a so-called cloud server.

通信部110は、例えば、NIC(Network Interface Card)又は通信回路などによって実現される。通信部110は、ネットワークNと無線又は有線で接続され、情報処理装置10cとの間で情報の送受信を行う。 The communication unit 110 is realized, for example, by a NIC (Network Interface Card) or a communication circuit. The communication unit 110 is connected to the network N wirelessly or via a wire, and transmits and receives information to and from the information processing device 10c.

制御部120は、サーバ装置100の各部の動作を制御する。制御部120は、例えば、CPUやMPU等によって、図示しない記憶部に記憶されたプログラムがRAM等を作業領域として実行されることにより実現される。制御部120は、例えば、ASICやFPGA等の集積回路により実現されてもよい。制御部120は、ハードウェアと、ソフトウェアとの組み合わせで実現されてもよい。制御部120は、取得部122と、判定部124と、要求部126と、提供部128と、を備える。 The control unit 120 controls the operation of each unit of the server device 100. The control unit 120 is realized, for example, by a CPU, an MPU, or the like executing a program stored in a storage unit (not shown) using a RAM or the like as a working area. The control unit 120 may be realized, for example, by an integrated circuit such as an ASIC or an FPGA. The control unit 120 may be realized by a combination of hardware and software. The control unit 120 includes an acquisition unit 122, a determination unit 124, a request unit 126, and a provision unit 128.

取得部122は、例えば、通信部110から情報処理装置10cを装着している各ユーザの活性度スコアの履歴に関する履歴データを取得する。取得部122は、例えば、図18Aから図18Cに示すユーザU1からユーザU3の履歴データ28Dから履歴データ28Dを取得する。取得部122は、取得した履歴データを共有データ132として記憶部130に記憶させる。 The acquisition unit 122 acquires, for example, history data related to the history of the activity score of each user wearing the information processing device 10c from the communication unit 110. The acquisition unit 122 acquires, for example, history data 28D1 to 28D3 of users U1 to U3 shown in Figures 18A to 18C. The acquisition unit 122 stores the acquired history data in the storage unit 130 as shared data 132.

判定部124は、共有データ132のうち、履歴データの傾向を判定する。判定部124は、例えば、履歴データの傾向が近似しているユーザがいるか否かを判定する。 The determination unit 124 determines the trend of the history data from the shared data 132. For example, the determination unit 124 determines whether there are any users whose history data has similar trends.

要求部126は、履歴データの傾向が近似している複数のユーザ存在した場合に、自身の履歴データを他のユーザに使用させることについての可否を要求する。 When there are multiple users whose history data tendencies are similar, the request unit 126 requests whether or not to allow other users to use the user's history data.

提供部128は、履歴データの使用が許可された場合に、履歴データの傾向が近似しているユーザに対して、履歴データを提供する。 When the use of the history data is permitted, the providing unit 128 provides the history data to users whose history data has similar trends.

記憶部130は、制御部120の演算内容やプログラムなどの各種情報を記憶するメモリであり、例えば、RAMと、ROMのような主記憶装置と、HDDなどの外部記憶装置とのうち、少なくとも1つ含む。 The storage unit 130 is a memory that stores various information such as the calculation contents and programs of the control unit 120, and includes at least one of a RAM, a main storage device such as a ROM, and an external storage device such as a HDD.

記憶部130には、共有データ132が記憶されている。共有データ132は、情報処理装置10cを装着している複数のユーザの活性度スコアに関する履歴データを含み得る。共有データ132は、例えば、例えば、図18Aから図18Cに示すユーザU1からユーザU3の履歴データ28Dから履歴データ28Dを含み得る。 The storage unit 130 stores shared data 132. The shared data 132 may include history data related to activity scores of a plurality of users wearing the information processing device 10c. The shared data 132 may include, for example, history data 28D1 to 28D3 of users U1 to U3 shown in Figs. 18A to 18C.

[サーバ装置の処理]
図23を用いて、第7実施形態に係るサーバ装置の処理について説明する。図23は、第7実施形態に係るサーバ装置の処理の流れの一例を示すフローチャートである。
[Server Device Processing]
The process of the server device according to the seventh embodiment will be described with reference to Fig. 23. Fig. 23 is a flowchart showing an example of the flow of the process of the server device according to the seventh embodiment.

制御部120は、共有データ132を参照し、履歴データが近似しているユーザがいるか否かを判定する(ステップS140)。例えば、共有データ132には、図18Aから図18Cに示すユーザU1からユーザU3の履歴データ28Dから履歴データ28Dが含まれているとする。判定部124は、例えば、1位から3位までの行動パターンが同じであり、各行動パターンの行動スコアが8以上であり、かつ互いの活性度スコアの差が10以下のユーザ同士を、履歴データが近似しているユーザであると判定する。この場合、判定部124は、ユーザU1と、ユーザU2の活性度スコアの1位が行動パターンMP4であり、2位が行動パターンMP3であり、3位が行動パターンMP1であることを特定する。判定部124は、ユーザU1について、行動パターンMP4の行動スコアが10であり、行動パターンMP3の行動スコアが9であり、行動パターンMP1の行動スコアが8であることを特定する。判定部124は、ユーザU2について、行動パターンMP4の行動スコアが8であり、行動パターンMP3の行動スコアが8であり、行動パターンMP1の行動スコアが8であることを特定する。判定部124は、ユーザU1及びユーザU2について、行動パターンMP1の活性度スコアの差が9であり、行動パターンMP3の活性度スコアの差が3であり、行動パターンMP1の活性度スコアの差が1であることを特定する。この場合、判定部124は、ユーザU1と、ユーザU2とは履歴データが近似していると判定する。 The control unit 120 refers to the shared data 132 and determines whether there is a user whose history data is similar (step S140). For example, the shared data 132 includes the history data 28D1 to 28D3 of the user U1 to the user U3 shown in FIG. 18A to FIG. 18C. The determination unit 124 determines that the users whose history data is similar are, for example, those whose behavior patterns from 1st to 3rd place are the same, whose behavior scores for each behavior pattern are 8 or more, and whose activity score difference is 10 or less. In this case, the determination unit 124 specifies that the 1st activity score of the user U1 and the user U2 is the behavior pattern MP4, the 2nd activity score is the behavior pattern MP3, and the 3rd activity score is the behavior pattern MP1. The determination unit 124 specifies that the behavior score of the behavior pattern MP4 is 10, the behavior score of the behavior pattern MP3 is 9, and the behavior score of the behavior pattern MP1 is 8 for the user U1. The determination unit 124 determines that, for user U2, the behavior score of behavior pattern MP4 is 8, the behavior score of behavior pattern MP3 is 8, and the behavior score of behavior pattern MP1 is 8. The determination unit 124 determines that, for users U1 and U2, the difference in activity score of behavior pattern MP1 is 9, the difference in activity score of behavior pattern MP3 is 3, and the difference in activity score of behavior pattern MP1 is 1. In this case, the determination unit 124 determines that the history data of users U1 and U2 are similar to each other.

本実施形態では、判定部124は、ユーザU1からユーザU3の3人の中から2人を選択している場合を説明したが、これは例示であり、実際のユーザの母集団の人数に特に制限はない。判定部124は、3人以上のユーザの履歴データが近似していると判定することもあり得る。判定部124は、本実施形態で説明した方法以外の方法で、履歴データが近似しているか否かを判定してもよい。判定部124は、例えば、数学的に定義された所定の条件式に従って、履歴データが近似しているか否かを判定してもよい。 In this embodiment, the determination unit 124 has been described as selecting two out of three users, user U1 to user U3, but this is merely an example, and there is no particular limit to the number of users in the actual user population. The determination unit 124 may determine that the history data of three or more users is similar. The determination unit 124 may determine whether the history data is similar by a method other than the method described in this embodiment. The determination unit 124 may determine whether the history data is similar according to a predetermined mathematically defined conditional expression, for example.

近似しているユーザがいると判定された場合(ステップS140;Yes)、ステップS141に進む。近似しているユーザがいないと判定された場合(ステップS140;No)、図23の処理を終了する。 If it is determined that there is a similar user (step S140; Yes), proceed to step S141. If it is determined that there is no similar user (step S140; No), end the process of FIG. 23.

ステップS140でYesと判定された場合、制御部120は、履歴データが近似しているユーザに対して共有の許可を要求する(ステップS141)。具体的には、要求部126は、通信部110を介して、ユーザU1及びユーザU2に対して、履歴データの共有の許可を求める通知を送信する。 If step S140 returns Yes, the control unit 120 requests permission to share from users whose history data is similar (step S141). Specifically, the request unit 126 transmits a notification to users U1 and U2 via the communication unit 110, requesting permission to share the history data.

制御部120は、共有の要求が許可されたか否かを判定する(ステップS142)。具体的には、要求部126は、ステップS141で送信した履歴データの共有の許可の要求に対して、ユーザU1又はユーザU2から履歴データの共有を許可する旨の返答があったか否かを判定する。共有の要求が許可されたと判定された場合(ステップS142;Yes)、ステップS143に進む。共有の要求が許可されていないと判定された場合(ステップS142;No)、図23の処理を終了する。 The control unit 120 determines whether the sharing request has been permitted (step S142). Specifically, the request unit 126 determines whether or not user U1 or user U2 has responded to the request for permission to share the history data sent in step S141, indicating that the sharing of the history data is permitted. If it is determined that the sharing request has been permitted (step S142; Yes), the process proceeds to step S143. If it is determined that the sharing request has not been permitted (step S142; No), the process of FIG. 23 ends.

ステップS142でYesと判定された場合、制御部120は、履歴データを共有させる(ステップS143)。具体的には、提供部128は、例えば、ユーザU2から履歴データの共有を許可された場合には、通信部110を介して、ユーザU1が装着している情報処理装置10cに対してユーザU1の履歴データ28Dを送信する。そして、図23の処理を終了する。 If the answer to step S142 is Yes, the control unit 120 shares the history data (step S143). Specifically, when the providing unit 128 is permitted to share the history data by the user U2, the providing unit 128 transmits the history data 28D1 of the user U1 to the information processing device 10c worn by the user U1 via the communication unit 110. Then, the process of FIG. 23 ends.

図24を用いて、第7実施形態に係る学習処理について説明する。図24は、第7実施形態に係る学習処理の流れの一例を示すフローチャートである。以下では、ユーザU1が装着している情報処理装置10cがユーザU2の履歴データ28Dを取得して、学習処理を行う処理について説明する。 The learning process according to the seventh embodiment will be described with reference to Fig. 24. Fig. 24 is a flowchart showing an example of the flow of the learning process according to the seventh embodiment. In the following, a process in which the information processing device 10c worn by the user U1 acquires the history data 28D2 of the user U2 and performs the learning process will be described.

制御部30cは、履歴データを取得する(ステップS150)。具体的には、履歴データ取得部58は、記憶部28cから活性度スコアの算出対象となるユーザの所定期間の履歴データ28Dを取得する。履歴データ取得部58が取得する履歴データ28Dには、少なくとも順位と、行動パターンと、行動スコアと、活性度スコアに関する情報が含まれ得る。履歴データ取得部58は、例えば、過去3カ月の1位から1000位までの履歴データ28Dを所得する。すなわち、履歴データ取得部58は、1000組のデータセットを教師データとして取得する。 The control unit 30c acquires history data (step S150). Specifically, the history data acquisition unit 58 acquires history data 28D1 for a predetermined period of a user for which an activity score is to be calculated from the storage unit 28c. The history data 28D1 acquired by the history data acquisition unit 58 may include information on at least a ranking, a behavior pattern, a behavior score, and an activity score. The history data acquisition unit 58 acquires, for example, history data 28D1 from 1st to 1000th place for the past three months. That is, the history data acquisition unit 58 acquires 1000 sets of data sets as teacher data.

制御部30cは、サーバ装置100からユーザU1の履歴データと近似している履歴データを取得する(ステップS151)。具体的には、履歴データ取得部58は、例えば、通信部26を介して、サーバ装置100からユーザU2の履歴データ28D2を取得する。ここで、例えば、履歴データ28Dの1000組のデータセットに含まれる数の少ない行動パターンが存在することも想定され得る。例えば、学習済みモデルを生成する場合には、6000から8000組以上のデータセットが必要な場合もあり得る。本実施形態では、履歴データ取得部58がサーバ装置100から履歴データ28Dに近似する履歴データ28Dを取得することで、データセット数を補い、より最適な学習済みモデルを生成することができる。 The control unit 30c acquires history data that is similar to the history data of the user U1 from the server device 100 (step S151). Specifically, the history data acquisition unit 58 acquires the history data 28D2 of the user U2 from the server device 100, for example, via the communication unit 26. Here, for example, it may be assumed that there are a small number of behavior patterns included in the 1000 sets of data sets of the history data 28D1 . For example, when generating a trained model, 6000 to 8000 sets or more of data sets may be required. In this embodiment, the history data acquisition unit 58 acquires the history data 28D2 that is similar to the history data 28D1 from the server device 100, thereby supplementing the number of data sets and generating a more optimal trained model.

制御部30cは、学習処理を実行する(ステップS152)。具体的には、学習部60は、履歴データ取得部58が取得した履歴データ28Dと履歴データ28Dとを用いて、ユーザの活性度スコアを算出するための学習済みモデルを機械学習により学習して生成する。 The control unit 30c executes a learning process (step S152). Specifically, the learning unit 60 uses the history data 28D1 and 28D2 acquired by the history data acquisition unit 58 to learn and generate a trained model for calculating the activity score of the user by machine learning.

制御部30cは、学習済みモデルを記憶する(ステップS153)。具体的には、学習部60は、生成した学習済みモデルを記憶部28bに記憶する。そして、図24の処理を終了する。 The control unit 30c stores the trained model (step S153). Specifically, the learning unit 60 stores the generated trained model in the storage unit 28b. Then, the process of FIG. 24 ends.

[処理内容]
図25を用いて、第7実施形態に係る情報処理装置10cの処理内容について説明する。図25は、第7実施形態に係る情報処理装置10cの処理の流れの一例を示すフローチャートである。
[Processing content]
The process of the information processing device 10c according to the seventh embodiment will be described with reference to Fig. 25. Fig. 25 is a flowchart showing an example of the process flow of the information processing device 10c according to the seventh embodiment.

ステップS160からステップS167の処理は、それぞれ、図20に示すステップS120からステップS127の処理と同一の処理なので、説明を省略する。 The processes from step S160 to step S167 are the same as the processes from step S120 to step S127 shown in FIG. 20, and therefore will not be described.

制御部30cは、共有データを用いて生成された学習済みモデルに基づいて、活性度スコアを算出する(ステップS168)。具体的には、活性度スコア算出部54は、履歴データ28Dと履歴データ28Dとを用いて生成された学習済みモデルを用いて、ユーザU1の活性度スコアを算出する。 The control unit 30c calculates the activity score based on the trained model generated using the shared data (step S168). Specifically, the activity score calculation unit 54 calculates the activity score of the user U1 using the trained model generated using the history data 28D1 and the history data 28D2 .

ステップS169からステップS172の処理は、それぞれ、図20に示すステップS129からステップS132の処理と同一の処理なので、説明を省略する。 The processes from step S169 to step S172 are the same as the processes from step S129 to step S132 shown in FIG. 20, and therefore will not be described.

上述のとおり、第7実施形態に係る情報処理装置10cは、ユーザU1の履歴データ28Dと、履歴データ28Dに近似するユーザU2の履歴データ28Dとを用いて学習済みモデルを生成し、その学習済みモデルを用いて活性度スコアを算出する。これにより、第7実施形態に係る情報処理装置10cは、より適切に活性度スコアを算出することができる。 As described above, the information processing device 10c according to the seventh embodiment generates a trained model using the history data 28D1 of the user U1 and the history data 28D2 of the user U2 that is similar to the history data 28D1 , and calculates the activity score using the trained model. This allows the information processing device 10c according to the seventh embodiment to more appropriately calculate the activity score.

[第8実施形態]
次に、図26を用いて、第8実施形態に係る情報処理装置について説明する。図26は、第8実施形態に係る情報処理装置の構成例を示すブロック図である。
[Eighth embodiment]
Next, an information processing device according to the eighth embodiment will be described with reference to Fig. 26. Fig. 26 is a block diagram showing an example of the configuration of the information processing device according to the eighth embodiment.

図26に示すように、情報処理装置10dは、出力部24aが触覚刺激出力部24Cを備える点で、図2に示す情報処理装置10とは異なる。 As shown in FIG. 26, the information processing device 10d differs from the information processing device 10 shown in FIG. 2 in that the output unit 24a includes a tactile stimulation output unit 24C.

ユーザの生体情報を時々刻々と変化するため、ユーザの活性度スコアも生体情報に変化に応じて、変化する可能性がある。情報処理装置10cは、ユーザの活性度スコアの時間的推移を相対的に提示することにより、活性度スコアの変化を分かりやすく提示する。 Because the user's biometric information changes from moment to moment, the user's activity score may also change in response to changes in the biometric information. The information processing device 10c presents the relative progression of the user's activity score over time, thereby presenting the changes in the activity score in an easy-to-understand manner.

触覚刺激出力部26Cは、ユーザUの触覚刺激を出力する装置である。例えば、触覚刺激出力部26Cは、振動などの物理的に作動することで、ユーザに触覚刺激を出力するが、触覚刺激の種類は、振動などに限られず任意のものであってよい。 The tactile stimulation output unit 26C is a device that outputs a tactile stimulation to the user U. For example, the tactile stimulation output unit 26C outputs a tactile stimulation to the user by physically operating, such as by vibration, but the type of tactile stimulation is not limited to vibration and may be any type.

第8実施形態に係る情報処理装置10dの制御部30dの出力制御部50は、出力制御部50は、出力部24aを制御して、活性度スコア算出部54が算出した活性度スコアの時間的な推移を示す情報を出力させる。言い換えれば、出力制御部50は、出力部24aを制御して、活性度スコアの相対的な変化を示す情報を出力させる。 The output control unit 50 of the control unit 30d of the information processing device 10d according to the eighth embodiment controls the output unit 24a to output information indicating the temporal change in the activity score calculated by the activity score calculation unit 54. In other words, the output control unit 50 controls the output unit 24a to output information indicating the relative change in the activity score.

図27Aから図27Eを用いて、活性度スコアの時間的な推移を相対的に表示する方法について説明する。図27Aから図27Eは、活性度スコアの時間的な推移を相対的に表示する方法を説明するための図である。 Using Figures 27A to 27E, we will explain a method for relatively displaying the temporal progression of the activity score. Figures 27A to 27E are figures for explaining a method for relatively displaying the temporal progression of the activity score.

図27Aに示すように、出力制御部50は、例えば、表示部24Aを制御して、活性度スコアの時間的な推移をグラフG1として表示させる。図27Aは、横軸が時間、縦軸が活性度スコアを示す。グラフG1において、時刻t0は、活性度スコアの算出を開始した時点を示す。ユーザは、グラフG1を視認することで、活性度スコアの時間的な推移を容易に把握することができる。 As shown in FIG. 27A, the output control unit 50, for example, controls the display unit 24A to display the change in activity score over time as graph G1. In FIG. 27A, the horizontal axis represents time and the vertical axis represents the activity score. In graph G1, time t0 represents the point in time when calculation of the activity score began. By visually checking graph G1, the user can easily grasp the change in activity score over time.

図27Bに示すように、出力制御部50は、例えば、表示部24Aを制御して、開始時の活性度スコアの値と、現在の活性度スコアの値とを並列に表示させる。図27Bに示す例では、開始時の活性度スコアが56で、現在の活性度スコアが78であることが示されている。これにより、ユーザは、活性度スコアの時間的な推移を容易に把握することができる。 As shown in FIG. 27B, the output control unit 50, for example, controls the display unit 24A to display the activity score value at the start and the current activity score value side by side. In the example shown in FIG. 27B, the activity score at the start is 56, and the current activity score is 78. This allows the user to easily understand the change in the activity score over time.

図27Cに示すように、出力制御部50は、例えば、表示部24Aを制御して、画面の左下隅を中心とする円を4等分した円弧を表示させる。図27Cに示す例では、円弧C1が、開始時点の活性度スコアを示し、その半径r1が活性度スコアの大きさを示す。図27Cに示す例では、円弧C2及び円弧C3は、現在の活性度スコアを示す。出力制御部50は、現在の活性度スコアが開始時点よりも大きければ、半径r1よりも大きい半径r2の円弧C2を半径r1の円弧C1と共に表示部24Aに表示させる。出力制御部50は、現在の活性度スコアが開始時点よりも小さければ、半径r1よりも小さい半径r3の円弧C3を半径r1の円弧C1と共に表示部24Aに表示させる。これにより、ユーザは、活性度スコアの時間的な推移を容易に把握することができる。 27C, the output control unit 50 controls the display unit 24A to display, for example, arcs obtained by dividing a circle centered on the lower left corner of the screen into four equal parts. In the example shown in FIG. 27C, the arc C1 indicates the activity score at the start time, and its radius r1 indicates the magnitude of the activity score. In the example shown in FIG. 27C, the arcs C2 and C3 indicate the current activity score. If the current activity score is greater than that at the start time, the output control unit 50 causes the display unit 24A to display the arc C2 with a radius r2 greater than the radius r1 together with the arc C1 with a radius r1. If the current activity score is smaller than that at the start time, the output control unit 50 causes the display unit 24A to display the arc C3 with a radius r3 smaller than the radius r1 together with the arc C1 with a radius r1. This allows the user to easily grasp the temporal change in the activity score.

図27Dに示すように、出力制御部50は、例えば、表示部24Aを制御して、棒を表示させる。図27Dに示す例では、棒B1が表示部24Aの中央部分に表示されているが、これに限らず、左下隅に表示されてもよいし、右下隅に表示されてもよい。図27Dに示す例では、棒B1が、開始時点の活性度スコアを示し、その高さh1が活性度スコアの大きさを示す。図27Dに示す例では、棒B2及び棒B3は、現在の活性度スコアを示す。出力制御部50は、現在の活性度スコアが開始時点よりも大きければ、高さh1よりも高い高さh2の棒B2を高さh1の棒B1と共に表示部24Aに表示させる。出力制御部50は、現在の活性度スコアが開始時点よりも小さければ、高さh1よりも低い高さh3の棒B3を高さh1の棒B1と共に表示部24Aに表示させる。これにより、ユーザは、活性度スコアの時間的な推移を容易に把握することができる。 27D, the output control unit 50 controls the display unit 24A to display bars, for example. In the example shown in FIG. 27D, the bar B1 is displayed in the center of the display unit 24A, but may be displayed in the lower left corner or the lower right corner. In the example shown in FIG. 27D, the bar B1 indicates the activity score at the start time, and its height h1 indicates the size of the activity score. In the example shown in FIG. 27D, the bar B2 and the bar B3 indicate the current activity score. If the current activity score is higher than the start time, the output control unit 50 causes the display unit 24A to display the bar B2 with a height h2 higher than the height h1 together with the bar B1 with the height h1. If the current activity score is lower than the start time, the output control unit 50 causes the display unit 24A to display the bar B3 with a height h3 lower than the height h1 together with the bar B1 with the height h1. This allows the user to easily grasp the time progression of the activity score.

図27Eに示すように、出力制御部50は、例えば、表示部24Aを制御して、グラフG2を表示する。グラフG2は、棒グラフであり得る。図27Eは、横軸が時間を示し、縦軸が活性度スコアを示す。グラフG2において、時刻t0は、活性度スコアの算出を開始した時点を示す。ユーザは、グラフG2を視認することで、活性度スコアの時間的な推移を容易に把握することができる。 As shown in FIG. 27E, the output control unit 50 controls, for example, the display unit 24A to display graph G2. Graph G2 may be a bar graph. In FIG. 27E, the horizontal axis indicates time and the vertical axis indicates the activity score. In graph G2, time t0 indicates the point in time when calculation of the activity score started. By visually checking graph G2, the user can easily grasp the progress of the activity score over time.

出力制御部50は、例えば、音声出力部24B又は触覚刺激出力部26Cを制御して、活性度スコアの時間的な推移を示す情報を出力してもよい。 The output control unit 50 may, for example, control the audio output unit 24B or the tactile stimulation output unit 26C to output information indicating the temporal progression of the activity score.

図28を用いて、音声出力部24B又は触覚刺激出力部24Cにより、活性度スコアの時間的な推移を示す情報を出力する方法について説明する。図28は、音声出力部24B又は触覚刺激出力部24Cにより活性度スコアの時間的な推移を示す情報を出力する方法を説明するための図である。 A method for outputting information showing the time progression of the activity score by the audio output unit 24B or the tactile stimulation output unit 24C will be described with reference to FIG. 28. FIG. 28 is a diagram for explaining a method for outputting information showing the time progression of the activity score by the audio output unit 24B or the tactile stimulation output unit 24C.

図28は、横軸が時間を示し、縦軸が活性度スコアを示す。時刻t0における活性度スコアNS1は、活性度スコアの算出を開始した時点の活性度スコアである。図28に示す例では、活性度スコアNS1が基準となる。出力制御部50は、例えば、基準である活性度スコアNS1を示す音声出力部24Bから出力させる音声の大きさを設定する。出力制御部50は、例えば、基準である活性度スコアNS1を示す触覚刺激出力部24Cから出力させる刺激(例えば、振動)の強さを設定する。 In FIG. 28, the horizontal axis indicates time and the vertical axis indicates the activity score. The activity score NS1 at time t0 is the activity score at the time when calculation of the activity score begins. In the example shown in FIG. 28, the activity score NS1 serves as the reference. The output control unit 50, for example, sets the volume of the sound to be output from the sound output unit 24B indicating the reference activity score NS1. The output control unit 50, for example, sets the strength of the stimulus (e.g., vibration) to be output from the tactile stimulation output unit 24C indicating the reference activity score NS1.

ここで、時刻t1の時点で活性度スコアが活性度スコアNS1よりも大きい、活性度スコアNS2になったとする。この場合、出力制御部50は、例えば、音声出力部24Bを制御して、活性度スコアNS1に対応する音声と、活性度スコアNS2に対応する音声とをセットで出力させる。出力制御部50は、例えば、触覚刺激出力部24Cを制御して、活性度スコアNS1に対応する刺激と、活性度スコアNS2に対応する刺激とをセットで出力させる。活性度スコアNS2に対応する音声は、活性度スコアNS1に対応する音声よりも大きい。活性度スコアNS2に対応する刺激は、活性度スコアNS1に対応する刺激よりも強い。活性度スコアNS2に対応する音声の大きさは、例えば、活性度スコアNS1対する活性度スコアSN2の比に応じて変化させることが好ましい。活性度スコアNS2に対応する刺激の強さは、例えば、活性度スコアNS1に対する活性度スコアNS2の比に応じて変化させることが好ましい。これにより、ユーザは、活性度スコアNS2の活性度スコアNS1に対する相対的な大きさを把握することができる。 Here, assume that at time t1, the activity score becomes an activity score NS2, which is greater than the activity score NS1. In this case, the output control unit 50, for example, controls the audio output unit 24B to output a set of an audio corresponding to the activity score NS1 and an audio corresponding to the activity score NS2. The output control unit 50, for example, controls the tactile stimulation output unit 24C to output a set of a stimulus corresponding to the activity score NS1 and an stimulus corresponding to the activity score NS2. The audio corresponding to the activity score NS2 is greater than the audio corresponding to the activity score NS1. The stimulus corresponding to the activity score NS2 is stronger than the stimulus corresponding to the activity score NS1. It is preferable that the volume of the audio corresponding to the activity score NS2 is changed according to, for example, the ratio of the activity score SN2 to the activity score NS1. It is preferable that the strength of the stimulus corresponding to the activity score NS2 is changed according to, for example, the ratio of the activity score NS2 to the activity score NS1. This allows the user to understand the relative magnitude of activity score NS2 to activity score NS1.

ここで、時刻t2の時点で活性度スコアが活性度スコアNS1よりも小さい、活性度スコアNS3になったとする。この場合、出力制御部50は、例えば、音声出力部24Bを制御して、活性度スコアNS1に対応する音声と、活性度スコアNS3に対応する音声とをセットで出力させる。出力制御部50は、例えば、触覚刺激出力部24Cを制御して、活性度スコアNS1に対応する刺激と、活性度スコアNS3に対応する刺激とをセットで出力させる。活性度スコアNS3に対応する音声は、活性度スコアNS1に対応する音声よりも小さい。活性度スコアNS3に対応する刺激は、活性度スコアNS1に対応する刺激よりも弱い。活性度スコアNS3に対応する音声の大きさは、例えば、活性度スコアNS1対する活性度スコアSN2の比に応じて変化させることが好ましい。活性度スコアNS3に対応する刺激の強さは、例えば、活性度スコアNS1に対する活性度スコアNS2の比に応じて変化させることが好ましい。これにより、ユーザは、活性度スコアNS2の活性度スコアNS1に対する相対的な大きさを把握することができる。 Here, assume that at time t2, the activity score becomes an activity score NS3, which is smaller than the activity score NS1. In this case, the output control unit 50, for example, controls the audio output unit 24B to output a set of an audio corresponding to the activity score NS1 and an audio corresponding to the activity score NS3. The output control unit 50, for example, controls the tactile stimulation output unit 24C to output a set of a stimulus corresponding to the activity score NS1 and an stimulus corresponding to the activity score NS3. The audio corresponding to the activity score NS3 is smaller than the audio corresponding to the activity score NS1. The stimulus corresponding to the activity score NS3 is weaker than the stimulus corresponding to the activity score NS1. It is preferable that the volume of the audio corresponding to the activity score NS3 is changed according to, for example, the ratio of the activity score SN2 to the activity score NS1. It is preferable that the strength of the stimulus corresponding to the activity score NS3 is changed according to, for example, the ratio of the activity score NS2 to the activity score NS1. This allows the user to understand the relative magnitude of activity score NS2 to activity score NS1.

上述のとおり、第8実施形態に係る情報処理装置10dは、ユーザの活性度スコアの時間的推移を相対的に提示する。これにより、第8実施形態に係る情報処理装置10dは、活性度スコアの時間的な変化が分かりやすくなる。 As described above, the information processing device 10d according to the eighth embodiment presents the temporal change in the user's activity score in a relative manner. This makes it easier to understand the temporal change in the activity score with the information processing device 10d according to the eighth embodiment.

以上、本発明の実施形態を説明したが、これら実施形態の内容により本発明が限定されるものではない。また、前述した構成要素には、当業者が容易に想定できるもの、実質的に同一のもの、いわゆる均等の範囲のものが含まれる。さらに、前述した構成要素は適宜組み合わせることが可能である。さらに、前述した実施形態の要旨を逸脱しない範囲で構成要素の種々の省略、置換又は変更を行うことができる。 Although the embodiments of the present invention have been described above, the present invention is not limited to the contents of these embodiments. The above-mentioned components include those that a person skilled in the art can easily imagine, those that are substantially the same, and those that are within the so-called equivalent range. Furthermore, the above-mentioned components can be combined as appropriate. Furthermore, various omissions, substitutions, or modifications of the components can be made without departing from the spirit of the above-mentioned embodiments.

10,10a,10b,10c,10d 情報処理装置
20 行動状態センサ
20A カメラ
20B マイク
20C GNSS受信器
20D 加速度センサ
20E ジャイロセンサ
20F 光センサ
20G 温度センサ
20H 湿度センサ
22 入力部
24 出力部
24A 表示部
24B 音声出力部
24C 触覚刺激出力部
26,110 通信部
28,130 記憶部
28A 学習モデル
28B 地図データ
28C,28Ca 補正データ
28D 履歴データ
30,30a,30b,30c,30d,120 制御部
32 生体センサ
32A 脈波センサ
40 行動状態情報取得部
42 行動パターン情報生成部
44 行動スコア算出部
46 行動パターン特定部
48 記憶制御部
50 出力制御部
52 生体情報取得部
54 活性度スコア算出部
56 活性度スコア補正部
58 履歴データ取得部
60 学習部
100 サーバ装置
122 取得部
124 判定部
126 要求部
128 提供部
10, 10a, 10b, 10c, 10d Information processing device 20 Behavioral state sensor 20A Camera 20B Microphone 20C GNSS receiver 20D Acceleration sensor 20E Gyro sensor 20F Light sensor 20G Temperature sensor 20H Humidity sensor 22 Input unit 24 Output unit 24A Display unit 24B Audio output unit 24C Tactile stimulation output unit 26, 110 Communication unit 28, 130 Memory unit 28A Learning model 28B Map data 28C, 28Ca Correction data 28D History data 30, 30a, 30b, 30c, 30d, 120 Control unit 32 Biometric sensor 32A Pulse wave sensor 40 Behavioral state information acquisition unit 42 Behavioral pattern information generation unit 44 Behavioral score calculation unit 46 Action pattern identification unit 48 Memory control unit 50 Output control unit 52 Biometric information acquisition unit 54 Activity score calculation unit 56 Activity score correction unit 58 History data acquisition unit 60 Learning unit 100 Server device 122 Acquisition unit 124 Determination unit 126 Request unit 128 Provision unit

Claims (5)

ユーザの行動状態に関する行動状態情報を検出する行動状態センサと、
前記ユーザの生体情報に関する生体情報を検出する生体センサと、
前記行動状態情報に基づいて、少なくとも前記行動状態が検出された日時、場所、時間のパラメータを座標軸とする多次元空間に行動パターン情報を生成し、前記行動パターン情報が集まる行動パターン情報群の密度が所定の密度を超えている空間ごとにグループ化する行動パターン情報生成部と、
前記行動パターン情報群を含む空間の大きさに関する情報を行動スコアとして算出する行動スコア算出部と、
前記行動スコアの値が所定以上の前記空間内に存在する前記行動パターン情報群を前記ユーザの行動パターンとして特定する行動パターン特定部と、
前記生体情報に基づいて、前記ユーザの自律神経活性度を算出する自律神経活性度算出部と、
前記自律神経活性度と、前記行動スコアと、前記行動パターンとに基づいて、前記ユーザの活性度スコアを算出する活性度スコア算出部と、
前記自律神経活性度の強度に応じて出力部からの出力の強度を変更する出力制御部と、
を備える、情報処理装置。
A behavioral state sensor that detects behavioral state information related to a behavioral state of a user;
A biosensor for detecting biometric information related to the biometric information of the user;
a behavior pattern information generating unit that generates behavior pattern information in a multidimensional space based on the behavior state information and uses as coordinate axes parameters of at least the date and time, the place, and the time when the behavior state is detected, and groups the behavior pattern information into spaces where the density of the behavior pattern information group exceeds a predetermined density;
a behavior score calculation unit that calculates information regarding a size of a space including the group of behavior pattern information as a behavior score;
a behavior pattern identification unit that identifies the group of behavior pattern information that exists in the space and has a behavior score value equal to or greater than a predetermined value as a behavior pattern of the user;
an autonomic nerve activity calculation unit that calculates an autonomic nerve activity of the user based on the biological information;
an activity score calculation unit that calculates an activity score of the user based on the autonomic nerve activity level, the behavior score, and the behavior pattern;
an output control unit that changes the intensity of an output from an output unit in accordance with the intensity of the autonomic nerve activity;
An information processing device comprising:
前記出力制御部は、前記ユーザの自律神経活性度の強度の時間的な推移に応じて、前記出力部からの出力の強度を変更する、
請求項1に記載の情報処理装置。
The output control unit changes the intensity of the output from the output unit in response to a temporal change in the intensity of the autonomic nerve activity of the user.
The information processing device according to claim 1 .
前記出力部は、触覚刺激出力部を有し、
前記出力制御部は、前記自律神経活性度の強度に応じて、前記触覚刺激出力部の振動の強度を変更する、
請求項1または2に記載の情報処理装置。
The output unit has a tactile stimulation output unit,
The output control unit changes the intensity of the vibration of the tactile stimulus output unit in accordance with the intensity of the autonomic nerve activity.
3. The information processing device according to claim 1 or 2.
ユーザの行動状態に関する行動状態情報を検出するステップと、
前記ユーザの生体情報に関する生体情報を検出するステップと、
前記行動状態情報に基づいて、少なくとも前記行動状態が検出された日時、場所、時間のパラメータを座標軸とする多次元空間に行動パターン情報を生成し、前記行動パターン情報が集まる行動パターン情報群の密度が所定の密度を超えている空間ごとにグループ化するステップと、
前記行動パターン情報群を含む空間の大きさに関する情報を行動スコアとして算出するステップと、
前記行動スコアの値が所定以上の前記空間内に存在する前記行動パターン情報群を前記ユーザの行動パターンとして特定するステップと、
前記生体情報に基づいて、前記ユーザの自律神経活性度を算出するステップと、
前記自律神経活性度と、前記行動スコアと、前記行動パターンとに基づいて、前記ユーザの活性度スコアを算出するステップと、
前記自律神経活性度の強度に応じて出力部からの出力の強度を変更するステップと、
を含む、情報処理方法。
detecting behavioral state information relating to a behavioral state of a user;
detecting biometric information relating to a biometric profile of the user;
generating behavior pattern information in a multidimensional space based on the behavior state information, the coordinate axes being parameters of at least the date and time, the place, and the time when the behavior state was detected, and grouping the behavior pattern information into spaces where the density of the behavior pattern information group that gathers the behavior pattern information exceeds a predetermined density;
calculating information on the size of a space including the group of behavioral pattern information as a behavior score;
identifying a group of the behavior pattern information that exists in the space and has a behavior score value equal to or greater than a predetermined value as a behavior pattern of the user;
calculating an autonomic nerve activity level of the user based on the biological information;
calculating an activity score of the user based on the autonomic nerve activity level, the behavior score, and the behavior pattern;
changing the intensity of the output from an output unit in accordance with the intensity of the autonomic nerve activity;
An information processing method comprising:
ユーザの行動状態に関する行動状態情報を検出するステップと、
前記ユーザの生体情報に関する生体情報を検出するステップと、
前記行動状態情報に基づいて、少なくとも前記行動状態が検出された日時、場所、時間のパラメータを座標軸とする多次元空間に行動パターン情報を生成し、前記行動パターン情報が集まる行動パターン情報群の密度が所定の密度を超えている空間ごとにグループ化するステップと、
前記行動パターン情報群を含む空間の大きさに関する情報を行動スコアとして算出するステップと、
前記行動スコアの値が所定以上の前記空間内に存在する前記行動パターン情報群を前記ユーザの行動パターンとして特定するステップと、
前記生体情報に基づいて、前記ユーザの自律神経活性度を算出するステップと、
前記自律神経活性度と、前記行動スコアと、前記行動パターンとに基づいて、前記ユーザの活性度スコアを算出するステップと、
前記自律神経活性度の強度に応じて出力部からの出力の強度を変更するステップと、
をコンピュータに実行させる、プログラム。
detecting behavioral state information relating to a behavioral state of a user;
detecting biometric information relating to a biometric profile of the user;
generating behavior pattern information in a multidimensional space based on the behavior state information, the coordinate axes being parameters of at least the date and time, the place, and the time when the behavior state was detected, and grouping the behavior pattern information into spaces where the density of the behavior pattern information group that gathers the behavior pattern information exceeds a predetermined density;
calculating information on the size of a space including the group of behavioral pattern information as a behavior score;
identifying a group of the behavior pattern information that exists in the space and has a behavior score value equal to or greater than a predetermined value as a behavior pattern of the user;
calculating an autonomic nerve activity level of the user based on the biological information;
calculating an activity score of the user based on the autonomic nerve activity level, the behavior score, and the behavior pattern;
changing the intensity of the output from an output unit in accordance with the intensity of the autonomic nerve activity;
A program that causes a computer to execute the following.
JP2020160244A 2020-09-24 2020-09-24 Information processing device, information processing method, and program Active JP7537207B2 (en)

Priority Applications (5)

Application Number Priority Date Filing Date Title
JP2020160244A JP7537207B2 (en) 2020-09-24 2020-09-24 Information processing device, information processing method, and program
EP21872284.1A EP4202820A4 (en) 2020-09-24 2021-09-15 Information processing device, information processing method, and program
PCT/JP2021/033904 WO2022065154A1 (en) 2020-09-24 2021-09-15 Information processing device, information processing method, and program
CN202180058932.XA CN116194914A (en) 2020-09-24 2021-09-15 Information processing device, information processing method, and program
US18/187,816 US20230222884A1 (en) 2020-09-24 2023-03-22 Information processing apparatus, information processing method, and computer-readable storage medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020160244A JP7537207B2 (en) 2020-09-24 2020-09-24 Information processing device, information processing method, and program

Publications (2)

Publication Number Publication Date
JP2022053411A JP2022053411A (en) 2022-04-05
JP7537207B2 true JP7537207B2 (en) 2024-08-21

Family

ID=80963059

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020160244A Active JP7537207B2 (en) 2020-09-24 2020-09-24 Information processing device, information processing method, and program

Country Status (1)

Country Link
JP (1) JP7537207B2 (en)

Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005072743A (en) 2003-08-21 2005-03-17 Aruze Corp Information exchange terminal
JP2012509145A (en) 2008-11-19 2012-04-19 イマージョン コーポレーション Method and apparatus for generating tactile feedback based on mood
JP2015188649A (en) 2014-03-28 2015-11-02 大日本印刷株式会社 A plurality of physiological index and visual line analysis support apparatus, programs
JP2016137201A (en) 2015-01-29 2016-08-04 マツダ株式会社 Control device for coping with feeling of passenger for vehicle
WO2018221488A1 (en) 2017-05-31 2018-12-06 本田技研工業株式会社 Know-how information processing system, method and device
WO2019017124A1 (en) 2017-07-19 2019-01-24 パナソニックIpマネジメント株式会社 Drowsiness estimating device and awakening inducing device
JP2019083564A (en) 2012-10-19 2019-05-30 三星電子株式会社Samsung Electronics Co.,Ltd. Display device, remote control device for controlling display device, method of controlling display device, method of controlling server, and method of controlling remote control device
JP2019159586A (en) 2018-03-09 2019-09-19 株式会社エヌ・ティ・ティ・データ Impression derivation system, impression derivation method and impression derivation program
JP2020046881A (en) 2018-09-18 2020-03-26 Zホールディングス株式会社 Information processing apparatus, information processing method, and information processing program
JP2022053365A (en) 2020-09-24 2022-04-05 株式会社Jvcケンウッド Information processing apparatus, information processing method, and program

Patent Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005072743A (en) 2003-08-21 2005-03-17 Aruze Corp Information exchange terminal
JP2012509145A (en) 2008-11-19 2012-04-19 イマージョン コーポレーション Method and apparatus for generating tactile feedback based on mood
JP2019083564A (en) 2012-10-19 2019-05-30 三星電子株式会社Samsung Electronics Co.,Ltd. Display device, remote control device for controlling display device, method of controlling display device, method of controlling server, and method of controlling remote control device
JP2015188649A (en) 2014-03-28 2015-11-02 大日本印刷株式会社 A plurality of physiological index and visual line analysis support apparatus, programs
JP2016137201A (en) 2015-01-29 2016-08-04 マツダ株式会社 Control device for coping with feeling of passenger for vehicle
WO2018221488A1 (en) 2017-05-31 2018-12-06 本田技研工業株式会社 Know-how information processing system, method and device
WO2019017124A1 (en) 2017-07-19 2019-01-24 パナソニックIpマネジメント株式会社 Drowsiness estimating device and awakening inducing device
JP2019159586A (en) 2018-03-09 2019-09-19 株式会社エヌ・ティ・ティ・データ Impression derivation system, impression derivation method and impression derivation program
JP2020046881A (en) 2018-09-18 2020-03-26 Zホールディングス株式会社 Information processing apparatus, information processing method, and information processing program
JP2022053365A (en) 2020-09-24 2022-04-05 株式会社Jvcケンウッド Information processing apparatus, information processing method, and program

Also Published As

Publication number Publication date
JP2022053411A (en) 2022-04-05

Similar Documents

Publication Publication Date Title
JP7501275B2 (en) Information processing device, information processing method, and program
US20210378526A1 (en) Systems and methods for detecting corrupt or inaccurate sensory representations
CN107847226B (en) Vision cognition measurement system, server control method, and program
US20180206775A1 (en) Measuring medication response using wearables for parkinson's disease
US20190365286A1 (en) Passive tracking of dyskinesia/tremor symptoms
US20170169716A1 (en) System and method for assessing visual and neuro-cognitive processing
US20100167801A1 (en) Kids personal health records fed into video games
CN107773254A (en) A kind of method and device for testing Consumer's Experience
US20220096863A1 (en) Virtual reality headset and system for delivering an individualized therapy session
JP7537207B2 (en) Information processing device, information processing method, and program
JP7537208B2 (en) Information processing device, information processing method, and program
JP7501276B2 (en) Information processing device, information processing method, and program
WO2022065154A1 (en) Information processing device, information processing method, and program
Coniglio et al. Human yaw rotation aftereffects with brief duration rotations are inconsistent with velocity storage
CN111938672A (en) Visual characteristic detection method based on virtual reality environment and related equipment
US20220111257A1 (en) System, Method and Computer Program Product Configured for Sensor-Based Enhancement of Physical Rehabilitation
KR20190047644A (en) Method and wearable device for providing feedback on exercise
US11432773B2 (en) Monitoring of diagnostic indicators and quality of life
US20210074389A1 (en) System and method for collecting, analyzing, and utilizing cognitive, behavioral, neuropsychological, and biometric data from a user's interaction with a smart device with either physically invasive or physically non-invasive means
KR20220148484A (en) Virtual reality based visual perseption analysis system, virtual reality based visual perseption analysis method and computer program stored in a recording medium to execute the method thereof
KR20230040093A (en) Method, Computer Program And System For Biofeedback Using Video Content
Lee et al. Proof-of-concept testing of a real-time mHealth measure to estimate postural control during walking: A potential application for mild traumatic brain injuries
US20230229372A1 (en) Display device, display method, and computer-readable storage medium
JP7567311B2 (en) Information providing device, information providing method, and program
US20230200711A1 (en) Information providing device, information providing method, and computer-readable storage medium

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20230630

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20240416

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20240613

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20240709

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20240722

R150 Certificate of patent or registration of utility model

Ref document number: 7537207

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150