JP6943287B2 - Biometric information processing equipment, biometric information processing systems, biometric information processing methods, and programs - Google Patents
Biometric information processing equipment, biometric information processing systems, biometric information processing methods, and programs Download PDFInfo
- Publication number
- JP6943287B2 JP6943287B2 JP2019546476A JP2019546476A JP6943287B2 JP 6943287 B2 JP6943287 B2 JP 6943287B2 JP 2019546476 A JP2019546476 A JP 2019546476A JP 2019546476 A JP2019546476 A JP 2019546476A JP 6943287 B2 JP6943287 B2 JP 6943287B2
- Authority
- JP
- Japan
- Prior art keywords
- segment
- feature amount
- state
- biometric information
- person
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/02—Detecting, measuring or recording for evaluating the cardiovascular system, e.g. pulse, heart rate, blood pressure or blood flow
- A61B5/024—Measuring pulse rate or heart rate
- A61B5/0245—Measuring pulse rate or heart rate by using sensing means generating electric signals, i.e. ECG signals
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/103—Measuring devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
- A61B5/11—Measuring movement of the entire body or parts thereof, e.g. head or hand tremor or mobility of a limb
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/16—Devices for psychotechnics; Testing reaction times ; Devices for evaluating the psychological state
Landscapes
- Health & Medical Sciences (AREA)
- Life Sciences & Earth Sciences (AREA)
- Engineering & Computer Science (AREA)
- Animal Behavior & Ethology (AREA)
- Public Health (AREA)
- Veterinary Medicine (AREA)
- Biophysics (AREA)
- Pathology (AREA)
- Physics & Mathematics (AREA)
- Biomedical Technology (AREA)
- Heart & Thoracic Surgery (AREA)
- Medical Informatics (AREA)
- Molecular Biology (AREA)
- Surgery (AREA)
- General Health & Medical Sciences (AREA)
- Cardiology (AREA)
- Physiology (AREA)
- Developmental Disabilities (AREA)
- Signal Processing (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Child & Adolescent Psychology (AREA)
- Dentistry (AREA)
- Educational Technology (AREA)
- Hospice & Palliative Care (AREA)
- Psychiatry (AREA)
- Psychology (AREA)
- Social Psychology (AREA)
- Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
- Measuring And Recording Apparatus For Diagnosis (AREA)
- Measuring Pulse, Heart Rate, Blood Pressure Or Blood Flow (AREA)
Description
本開示は、人物の生体情報を処理する技術に関する。 The present disclosure relates to a technique for processing biometric information of a person.
従業員の職場におけるストレスによる離職・休職と、それによる企業の負担の増加が問題になっている。この問題を解決する為、心拍・発汗・体温等の生体情報(生体信号とも呼ばれる)を測定することで被測定者のストレスの度合いを推定する技術および研究がある。 There are problems of employee turnover and leave due to stress in the workplace, and the resulting increase in the burden on the company. In order to solve this problem, there are techniques and researches for estimating the degree of stress of the subject by measuring biological information (also called biological signal) such as heartbeat, sweating, and body temperature.
生体情報の中でも、心拍の情報は、ストレスに関係が深く、ストレスの度合いの推定(以下、「ストレス推定」とも表記)において有用な情報である。心拍により生じる脈波の情報から疲労度を評価する方法に関する発明が、例えば、特許文献1に記載されている。
Among the biological information, the heartbeat information is closely related to stress and is useful information for estimating the degree of stress (hereinafter, also referred to as “stress estimation”). For example,
しかしながら、単に生体情報を用いるだけでは、精度の高いストレス推定は難しい。なぜなら、生体情報は、ストレス以外の要因、例えば、被測定者の運動の程度(以下、「運動レベル」、「運動状態」とも表記)によっても、変動するからである。 However, it is difficult to estimate stress with high accuracy simply by using biometric information. This is because the biological information varies depending on factors other than stress, for example, the degree of exercise of the person to be measured (hereinafter, also referred to as "exercise level" and "exercise state").
そこで、生体情報を分析すると同時に、生体情報が得られた時点における被測定者の運動状態を推定する研究がある。例えば、非特許文献1は、皮膚電気活動(Electrodermal Activity;EDA)と精神状態との関係に関する研究を開示している。この研究では、30秒の期間ごとの、ウェアラブルセンサにより被験者から取得されたEDAのピークの出現回数(すなわち、EDAのピーク出現頻度)が計測された。また、各期間における被験者の運動レベル(座っている状態、歩いている状態等)が、加速度計によって判定され、EDAのピーク出現頻度は運動レベルごとに集計された。この研究により、運動レベルが高いほど、EDA振幅およびEDAピーク出現頻度は大きな値となることが示された。
Therefore, there is a study to analyze the biological information and at the same time to estimate the motor state of the person to be measured at the time when the biological information is obtained. For example, Non-Patent
非特許文献2も、被験者の皮膚温度(Skin Temperature;ST)および皮膚コンダクタンス(Skin Conductance;SC)等の生体情報と同時に、手の加速度(Accelerometer data;ACC)も測定する研究を開示している。 Non-Patent Document 2 also discloses a study in which a subject's skin temperature (ST) and skin conductance (SC) and other biological information as well as hand acceleration (Accelerometer data; ACC) are measured. ..
他に、運動と生体情報とに関して情報処理を行う技術として、運動を行った後の脈拍から「体力年齢」を算出する技術が、特許文献2に記載されている。ただし、特許文献2に開示される技術は、被測定者は決められた運動をすることが前提であるため、運動状態を推定する処理を含まない。それゆえ、自由に行動する被測定者のストレスの度合いを推定することは、特許文献2に開示される技術ではできない。 In addition, as a technique for processing information regarding exercise and biological information, a technique for calculating "physical strength age" from a pulse after exercise is described in Patent Document 2. However, the technique disclosed in Patent Document 2 does not include a process of estimating the exercise state because it is premised that the person to be measured performs a predetermined exercise. Therefore, it is not possible to estimate the degree of stress of a freely moving subject by the technique disclosed in Patent Document 2.
また、人に装着された加速度センサから所定の時間間隔ごとの運動頻度を推定し、運動頻度の変化に基づいて、シーン(同じ動作内容のまとまり)を抽出する技術が、特許文献3に開示されている。ただし、特許文献3に開示される技術は、人の心身の状態を測定する技術ではない。特許文献3には体温が測定されることが記載されているが、体温は所定の時間間隔ごとの体温の平均値の算出に用いられるのみである。
Further,
ストレス推定に用いられる、生体情報に基づく指標値(以下、「特徴量」と表記)の中には、測定データが長いほどより精度よく検出される特徴量や、十分な精度で検出されるために十分な長さの測定データを必要とする特徴量がある。 Among the index values based on biological information (hereinafter referred to as "features") used for stress estimation, the longer the measurement data, the more accurately the features are detected, and the more accurately they are detected. There are features that require sufficient length of measurement data.
例えば、心拍に関する特徴量として、HF(High Frequency)成分、およびLF(Low Frequency)成分と呼ばれる特徴量が知られている。HF成分およびLF成分は、心拍変動の時系列データにおいて現れる、周期が比較的長い波である。これらの成分は、分析に使用される時系列データが長いほど、より精度よく検出される。特に、LF成分は、周波数が0.05Hzから0.15Hz程度の範囲の成分であるため、30秒程度の時系列データからは検出され難い。 For example, as feature amounts related to heartbeat, feature amounts called HF (High Frequency) component and LF (Low Frequency) component are known. The HF and LF components are waves with relatively long periods that appear in the time series data of heart rate variability. The longer the time series data used in the analysis, the more accurate these components will be detected. In particular, since the LF component is a component having a frequency in the range of about 0.05 Hz to 0.15 Hz, it is difficult to detect it from time series data of about 30 seconds.
他にも、心拍変動の時系列データにおける相関次元(Correlation Dimension)も、十分な精度で検出されるために比較的長い時系列データを必要とする特徴量の1つである。 In addition, the correlation dimension in the time-series data of heart rate variability is also one of the features that requires a relatively long time-series data in order to be detected with sufficient accuracy.
非特許文献1および2に開示されるような、生体情報を30秒ごとに区切って、区切られた部分(セグメント)からそれぞれ特徴量を検出する方法では、上述のような特徴量が精度よく検出できない。つまり、時系列データをより細かく(すなわち、短いセグメントに)分割するほど、有用な情報が欠落し、ストレス推定の精度が下がるという、第1のデメリットがある。換言すれば、長周期成分に基づいた精度の高いストレス推定を行うには、特徴量を検出するための、時系列データのセグメントは、長いほど良い。
In the method of dividing biological information every 30 seconds and detecting the feature amount from each of the divided portions (segments) as disclosed in
しかし、時系列データの区切り(セグメンテーション)の単位を長く設定すると、運動状態が正確に判定されない可能性が高くなるという、第2のデメリットがある。1つのセグメントの中に2種類以上の運動状態が含まれてしまう可能性が大きくなるからである。セグメントごとに運動状態が判定されるので、セグメントが長いほど、実際の運動状態が頻繁に切り替わる場合に運動状態の遷移を検出できなくなるおそれがある。 However, if the unit of segmentation of the time series data is set long, there is a second demerit that there is a high possibility that the motion state is not accurately determined. This is because there is a high possibility that two or more types of exercise states are included in one segment. Since the exercise state is determined for each segment, the longer the segment, the more likely it is that the transition of the exercise state cannot be detected when the actual exercise state is frequently switched.
つまり、生体情報と運動状態とを分析する単位であるセグメントの長さは、短いほど第1のデメリットが大きくなり、長いほど第2のデメリットが大きくなる。 That is, the shorter the length of the segment, which is the unit for analyzing the biological information and the exercise state, the larger the first demerit, and the longer the length, the larger the second demerit.
本発明は、セグメントごとに導出される特徴量を用いた分析を、より高精度に行う装置および方法等を提供することを目的の1つとする。 One of the objects of the present invention is to provide an apparatus and a method for performing analysis using features derived for each segment with higher accuracy.
本発明の一態様に係る生体情報処理装置は、被測定者の生体情報の時系列データから、前記生体情報が取得された期間における前記被測定者の運動状態に基づいて前記時系列データの部分であるセグメントを生成する、セグメント生成手段と、前記セグメントから特徴量を導出する特徴量導出手段と、前記特徴量、および前記特徴量に基づく前記被測定者の状態に関する情報の、少なくともいずれかを出力する出力手段と、を備える。 The biometric information processing apparatus according to one aspect of the present invention is a portion of the time-series data based on the exercise state of the person to be measured during the period in which the biometric information is acquired from the time-series data of the biometric information of the person to be measured. At least one of a segment generation means for generating a segment, a feature amount derivation means for deriving a feature amount from the segment, the feature amount, and information on the state of the person to be measured based on the feature amount. It is provided with an output means for outputting.
本発明の一態様に係る生体情報処理方法は、被測定者の生体情報の時系列データから、前記生体情報が取得された期間における前記被測定者の運動状態に基づいて前記時系列データの部分であるセグメントを生成し、前記セグメントから特徴量を導出し、前記特徴量、および前記特徴量に基づく前記被測定者の状態に関する情報の、少なくともいずれかを出力する。 The biometric information processing method according to one aspect of the present invention is a portion of the time-series data based on the exercise state of the person to be measured during the period in which the biometric information is acquired from the time-series data of the biometric information of the person to be measured. A segment is generated, a feature amount is derived from the segment, and at least one of the feature amount and information on the state of the person to be measured based on the feature amount is output.
本発明の一態様に係るプログラムは、被測定者の生体情報の時系列データから、前記生体情報が取得された期間における前記被測定者の運動状態に基づいて前記時系列データの部分であるセグメントを生成する、セグメント生成処理と、前記セグメントから特徴量を導出する特徴量導出処理と、前記特徴量、および前記特徴量に基づく前記被測定者の状態に関する情報の、少なくともいずれかを出力する出力処理と、を実行させる。上記のプログラムは、例えば、コンピュータ読み取り可能な非一時的な記憶媒体により記憶される。 The program according to one aspect of the present invention is a segment that is a part of the time-series data from the time-series data of the biometric information of the person to be measured, based on the exercise state of the person to be measured during the period in which the biometric information is acquired. Output of at least one of a segment generation process for generating Process and execute. The above program is stored, for example, on a computer-readable non-temporary storage medium.
本発明によれば、セグメントごとに導出される特徴量を用いた分析を、より高精度に行うことができる。 According to the present invention, it is possible to perform analysis using the feature quantities derived for each segment with higher accuracy.
以下、図面を参照しながら、本発明の実施形態を詳細に説明する。なお、本開示の計算式において用いられる、演算子「・」は、乗算の演算子であり、演算子「/」は、除算の演算子である。 Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings. The operator "・" used in the calculation formula of the present disclosure is a multiplication operator, and the operator "/" is a division operator.
<<第1の実施形態>>
まず、本発明の第1の実施形態について説明する。<< First Embodiment >>
First, the first embodiment of the present invention will be described.
<構成>
図1は、第1の実施形態に係る生体情報処理システム1の構成を示すブロック図である。生体情報処理システム1は、生体情報処理装置11と、生体情報取得部5と、動き情報取得部6と、を含む。<Structure>
FIG. 1 is a block diagram showing a configuration of a biometric
生体情報処理装置11は、制御部110と、記憶部119と、運動状態識別部111と、セグメント生成部112と、特徴量導出部113と、統合部114と、ストレス推定部115と、情報出力部116と、を備える。
The biometric
生体情報処理装置11は、生体情報取得部5および動き情報取得部6に、通信可能に接続される。生体情報処理装置11は、生体情報取得部5および動き情報取得部6により取得された情報を受け取る。生体情報処理装置11と生体情報取得部5との間の通信、および生体情報処理装置11と動き情報取得部6との間の通信は、有線によって行われてもよいし、無線によって行われてもよい。
The biometric
生体情報処理装置11は、例えば、インターネットに接続されたサーバである。この場合、生体情報処理装置11は、インターネットを介して生体情報取得部5および動き情報取得部6により取得された情報を受け取ってもよい。生体情報処理装置11は、被測定者が所持する、携帯情報端末またはPC(Personal Computer)等の情報処理装置でもよい。その場合、生体情報処理装置11は、例えば、ケーブルを介して、または電磁波や音波等を用いた通信によって、生体情報取得部5および動き情報取得部6から情報を受け取ってもよい。生体情報処理装置11、生体情報取得部5、および動き情報取得部6の一部または全部が同一の装置であってもよい。
The biometric
===生体情報取得部5===
生体情報取得部5は、生体情報を取得する。=== Biometric
The biological
生体情報取得部5により取得される生体情報の例としては、脈波(心拍)、体温、脳波、筋電位、血流、血中成分、呼吸の様子、まばたきの様子、および発汗の程度等が挙げられる。生体情報取得部5により取得される生体情報は、ユーザの精神状態または疲労度等がわかる生体情報であれば何でもよい。以下の説明においては、取得される生体情報として心拍を想定するが、心拍はあくまで生体情報処理装置11が処理する生体情報の一例である。
Examples of biological information acquired by the biological
生体情報取得部5は、例えば、腕時計型、貼り付け型、又は巻きつけ型等のウェアラブルセンシングデバイスである。生体情報取得部5は、例えば、PPG(Photoplethysmography)によって脈波を取得する光電式容積脈波計、または心筋の筋電を計測することによって心拍を測定する心電計等の、人体に接触させて生体情報を取得するセンサでもよい。あるいは、生体情報取得部5は、カメラ等を用いて非接触で脈波又は心拍を推定する装置でもよい。
The biological
生体情報取得部5は、取得された生体情報を、時刻情報とともに生体情報処理装置11に送信する。生体情報取得部5により取得された生体情報は、例えば、制御部110によって時系列データとして記憶部119に記憶される。
The biometric
===動き情報取得部6===
動き情報取得部6は、被測定者が行っている運動の強さの指標となる情報である動き情報を取得する。動き情報は、動きの激しさを示す指標、身体的な負荷の程度を示す指標、あるいは、エネルギーの消費量を示す指標とも言える。動き情報取得部6は、生体情報取得部5により取得される生体情報に影響を与える、身体的な活動の様子を特定可能な情報を取得すればよい。=== Motion
The motion
例えば、動き情報取得部6は、人体に取り付けられる加速度センサである。あるいは、例えば、動き情報取得部6は、カメラと、カメラにより撮影された人物の動きを追跡する画像処理装置との組でもよいし、対象までの距離を取得する深度センサとその距離の変化を分析する分析装置との組でもよい。
For example, the motion
動き情報取得部6は、例えば、動き情報として、被測定者の特定の部位のX方向、Y方向、およびZ方向の加速度(AcX、AcY、およびAcZ)を、常時(例えば、1秒あたり8回の頻度で)取得する。なお、X方向、Y方向、およびZ方向は、動き情報取得部6において定義されている方向である。
For example, the motion
動き情報取得部6が、被験者に取り付けられた加速度センサである場合は、動き情報取得部6は計測値それ自体を、動き情報として取得すればよい。
When the motion
動き情報取得部6がカメラと、カメラにより撮影された人物の動きを追跡する画像処理装置との組である場合、動き情報取得部6は、被測定者の特定の部位の加速度を、画像処理によって算出すればよい。
When the motion
動き情報取得部6が対象までの距離を取得する深度センサとその距離の変化を分析する分析装置との組である場合も、動き情報取得部6は、被測定者の特定の部位の加速度を、深度センサとその部位との間の距離の変動に基づいて算出すればよい。
Even when the motion
動き情報は、所定の閾値以上の加速度が計測された時刻だけを示す情報でもよい。例えば、動き情報取得部6は、歩数計のように、所定の閾値以上の加速度を検出するデバイスであってもよい。
The motion information may be information indicating only the time when the acceleration equal to or higher than a predetermined threshold value is measured. For example, the motion
動き情報取得部6は、取得された動き情報を、時刻情報とともに生体情報処理装置11に送信する。動き情報取得部6により取得された動き情報は、例えば、制御部110によって記憶部119に記録され、運動状態識別部111による運動状態の識別(後述)に用いられる。
The motion
なお、生体情報取得部5および動き情報取得部6が計時機能を持たない場合は、生体情報取得部5および動き情報取得部6は、取得された値を随時、生体情報処理装置11に送出し、生体情報処理装置11にて制御部110がその値に時刻情報を付与してもよい。
When the biometric
以下、生体情報処理装置11に含まれる構成要素のそれぞれの機能について説明する。後述するが、制御部110、運動状態識別部111、セグメント生成部112、特徴量導出部113、統合部114、ストレス推定部115、および情報出力部116は、例えば、プログラムに基づいて命令を実行する1つまたは複数のプロセッサとメモリとを含むコンピュータによって構成されてもよい。
Hereinafter, the functions of each of the components included in the biometric
なお、本実施形態において、生体情報処理装置11が処理する対象である生体情報が取得された期間(スパン)を、t=0からt=tmaxまでの期間(スパン)であると定義する。
In the present embodiment, the period (span) from which the biometric information to be processed by the biometric
===制御部110===
制御部110は、生体情報処理装置11に含まれる他の構成要素の動作を制御する。===
The
また、制御部110は、生体情報処理装置11が扱うデータの流れを制御する。例えば、制御部110は、生体情報取得部5および動き情報取得部6により取得された情報を受け取り、受け取った情報を記憶部119に記録する。
In addition, the
===記憶部119===
記憶部119は、生体情報処理装置11が扱うデータを一時的に、または非一時的に、記憶する。記憶部119は、いわば、ワーキングメモリである。記憶部119は、不揮発性の記憶媒体でもよい。記憶部119に対して、生体情報処理装置11に含まれる他の構成要素は自由にデータを読み書き可能である。===
The
===運動状態識別部111===
運動状態識別部111は、測定期間(スパン)に含まれる、時刻の小単位の各々における、被測定者の運動状態を識別する。言い換えれば、運動状態識別部111は、時刻の小単位の各々における運動状態を数種類の運動状態に分類する。運動状態の種類は、例えば、“Sitting”(座)状態、“Walking”(歩)状態、および“Running”(走)状態の3種類である。識別される運動状態の種類および数はこれには限られない。例えば、運動状態の種類は、“Sitting”(座)状態、“Standing”(立)状態、“Walking”(歩)状態、および“Running”状態の4種類でもよいし、この4種類にさらに“Sleeping”(寝)状態が加わった5種類でもよい。運動状態は、被測定者の運動の強さを、段階毎に識別するパラメータであればよい。=== Exercise
The motion
運動状態の各種類は、“Sitting”等の具体的な名称を持たなくてもよい。例えば、運動状態の種類は、「第1の運動状態」と「第2の運動状態」と「第3の運動状態」との3種類でもよい。 Each type of exercise state does not have to have a specific name such as "Sitting". For example, the types of exercise states may be three types: "first exercise state", "second exercise state", and "third exercise state".
運動状態識別部111は、情報処理の対象となるデータ全体の時間の範囲を、時間Tsごとの区間(period)に分け、各区間における被測定者の運動状態を識別する。区間は、例えば、区間N1=[0,Ts],区間N2=[Ts,2Ts],・・・,区間Nn=[(n−1)Ts,n・Ts]のように設定される。区間の数がk個生成可能であるとき、上記のnの値の最大値はkである。なお、区間は、閉区間でも、開区間でも、半開区間でもよい。The motion
区間の長さTsの値は予め設定されていてもよいし、データの長さに応じて適宜設定されてもよい。Tsの具体的な値は、例えば、1秒、10秒、30秒、または1分である。より細かく運動状態を識別するためには、区間の長さTsは短い方がよい。ただし、運動状態が頻繁に切り替わると後述するセグメントが短くなる。好適なTsの値は、被測定者の状況等によって変化するため、生体情報処理装置11の設計者または利用者により、適宜設定されるとよい。
The value of the section length Ts may be set in advance, or may be appropriately set according to the length of the data. Specific values of Ts are, for example, 1 second, 10 seconds, 30 seconds, or 1 minute. In order to discriminate the motion state more finely, the length Ts of the section should be short. However, if the exercise state is frequently switched, the segment described later becomes shorter. Since the suitable Ts value changes depending on the situation of the person to be measured and the like, it may be appropriately set by the designer or user of the biometric
区間は、区間どうしが重なるよう設定されてもよい。例えば、区間は、重なり度として“W”を用いて、区間N1=[0,Ts+W],区間N2=[Ts,2Ts+W],・・・,区間Nn=[(n−1)Ts,n・Ts+W]のように設定されてもよい。The sections may be set so that the sections overlap each other. For example, the interval uses "W" as the degree of overlap, and the interval N 1 = [0, Ts + W], the interval N 2 = [Ts, 2Ts + W], ..., The interval N n = [(n-1) Ts. , N · Ts + W].
以下、区間における被測定者の運動状態を「区間の運動状態」とも表記する。 Hereinafter, the motion state of the person to be measured in the section is also referred to as “the motion state of the section”.
区間の運動状態を識別する方法は、一般に知られている方法でよい。区間の運動状態を識別する方法の例を、以下に示す。 A generally known method may be used as a method for identifying the motion state of the section. An example of a method for identifying the motion state of a section is shown below.
例として、運動状態識別部111は、ある区間Nx=[X1,X2]における運動状態を識別するとする。
As an example, it is assumed that the exercise
運動状態識別部111は、区間の長さよりも短い期間(term)ごとの運動の強さを示す指標値を導出し、その指標値に基づいて運動状態を識別してもよい。本開示では、運動の強さを示す指標値を“AM”とする。“AM”は、“Activity Magnitude”の略である。
The exercise
例えば、運動状態識別部111は、区間Nx=[X1,X2]をL個(Lは任意の整数)の期間(term)に等分割し、T0=X1、TL=X2、分割点をT1、T2、・・・、TL−1とする。運動状態識別部111は、各期間[0,T1]、・・・、[TL−1,TL]のAMを導出する。なお、期間(term)は、閉区間でも、開区間でも、半開区間でもよい。For example, the motion
[AMの導出方法の例]
ある期間をDx=[Ta,Tb]とする。期間DxにおけるAMの導出方法の例を以下に示す。[Example of AM derivation method]
Let Dx = [Ta, Tb] be a certain period. An example of the method of deriving AM in the period Dx is shown below.
例えば、動き情報として、X方向、Y方向、およびZ方向の加速度が、期間Dx=[Ta,Tb]の間にm回取得されるとする。i=1,2,・・・,mとして、加速度が取得される時刻をtiとし、時刻tiで取得された、X方向、Y方向、およびZ方向の加速度を、それぞれ、AcXi、AcYi、およびAcZiとする。For example, it is assumed that the accelerations in the X direction, the Y direction, and the Z direction are acquired m times during the period Dx = [Ta, Tb] as motion information. i = 1, 2, · · ·, as m, the time at which acceleration is obtained with t i, obtained at time t i, X direction, Y direction, and the acceleration in the Z-direction, respectively, ACX i, Let it be AcY i and AcZ i .
この場合、運動状態識別部111は、期間Dx=[Ta,Tb]におけるAMを、例えば、下記の数式に基づいて算出する。
In this case, the exercise
RmX、RmY、RmZは、それぞれ、AcX、AcY、AcZの、区間Nx=[X1,X2]の直前のP秒間(Pの値は任意)の移動平均である。Pの値は、例えば、5である。 RmX, RmY, and RmZ are moving averages of AcX, AcY, and AcZ for P seconds (the value of P is arbitrary) immediately before the interval Nx = [X1, X2], respectively. The value of P is, for example, 5.
AMの定義の別の例を式(2)から(4)に示す。 Another example of the definition of AM is shown in equations (2) to (4).
式(4)の関数HはHeaviside関数である。すなわち、H(x)の値は、xが0を超える場合に1、xが0以下である場合に0である。式(4)により導出されるAMは、区間Dx=[Ta,Tb]に含まれる複数の時点ti(i=1,2,・・・,m)のうち、加速度が閾値Th以上であった時点の個数を示す。The function H in equation (4) is a Heaviside function. That is, the value of H (x) is 1 when x exceeds 0 and 0 when x is 0 or less. AM derived by Equation (4) the interval Dx = [Ta, Tb] plurality of time points t i that is included in (i = 1, 2, · · ·, m) of, a the acceleration threshold Th or Indicates the number at the time of
式(4)における閾値Thは、設計者により設定された値でもよい。閾値Thは、決定木を用いた機械学習等によって導出されてもよい。 The threshold value Th in the equation (4) may be a value set by the designer. The threshold Th may be derived by machine learning using a decision tree or the like.
動き情報が、所定の閾値以上の加速度が計測された時刻である場合、運動状態識別部111は、期間Dx=[Ta,Tb]において所定の閾値以上の加速度が検出された回数を、Dx=[Ta,Tb]におけるAMとしてもよい。
When the motion information is the time when the acceleration of the predetermined threshold value or more is measured, the motion
[AMを用いた運動状態の識別方法の例]
次に、AMを用いて区間Nx=[X1,X2]の運動状態を識別する方法の例を説明する。[Example of method for identifying exercise state using AM]
Next, an example of a method of identifying the motion state of the section Nx = [X1, X2] using AM will be described.
運動状態識別部111は、例えば、AMを、運動状態の種類よりも1少ない数の境界値のそれぞれと比較する。運動状態の種類が3種類である場合は、2つの境界値が用いられる。
The exercise
一例として、運動状態識別部111は、区間Nx=[X1,X2]に含まれる期間Di=[Ti−1,Ti](i=1,・・・,L)の各々におけるAMを、2つの境界値“WS”および“RW”と比較する。そして、運動状態識別部111は、各々のAMのうち、AM≦WSであるAMの数、WS≦AM≦RWであるAMの数、およびRW≦AMであるAMの数を、計上する。そして、運動状態識別部111は、下記の手順により、区間Nx=[X1,X2]における運動状態を決定する。
・AM≦WSであるAMの数が最も多い場合、運動状態は“Sitting”
・WS≦AM<RWであるAMの数が最も多い場合、運動状態は“Walking”
・RW<AMであるAMの数が最も多い場合、運動状態は“Running”
ただし、AM≦WSであるAMの数、WS≦AM≦RWであるAMの数、およびRW≦AMであるAMの数のうち、最大である数が2以上存在する場合は、決定可能な運動状態のうちいずれか1つの運動状態を優先させて設定するよう設計されればよい。As an example, the movement
-When the number of AMs with AM ≤ WS is the largest, the exercise state is "Sitting".
・ When the number of AMs with WS ≤ AM <RW is the largest, the exercise state is “Walking”.
・ When the number of AMs with RW <AM is the largest, the exercise state is “Running”.
However, if the maximum number of the number of AMs with AM ≤ WS, the number of AMs with WS ≤ AM ≤ RW, and the number of AMs with RW ≤ AM is 2 or more, the exercise can be determined. It may be designed to prioritize and set any one of the states.
上記手順は、例えば下記の式(5)および(6)に示される計算によっても実現され得る。すなわち、区間Nx=[X1,X2]に含まれる各期間の指標値をAMj(j=1,・・・,L)として、式(5)により定義される変数MaxCountを用いることで、区間Nx=[X1,X2]の運動状態を表す変数“State”の値が、式(6)により決定されてもよい。The above procedure can also be realized by, for example, the calculations shown in the following equations (5) and (6). That is, by using the variable MaxCount defined by the equation (5) with the index value of each period included in the interval Nx = [X1, X2] as AM j (j = 1, ..., L), the interval The value of the variable "State" representing the motion state of Nx = [X1, X2] may be determined by the equation (6).
[AMを用いた運動状態の識別方法の別の例]
各々のAMと所定の閾値との比較により運動状態を決定する方法の例は、上記以外にも次のような例がある。[Another example of a method for identifying a motor state using AM]
In addition to the above, there are the following examples of methods for determining the exercise state by comparing each AM with a predetermined threshold value.
例えば、運動状態識別部111は、RW≦AMであるAMの数が第1の閾値以上である場合は“Running”状態を付与し、それ以外の場合で、WS≦AMであるAMの数が第2の閾値以上である場合は“Walking”状態を付与し、それ以外の場合は “Sitting”状態を付与してもよい。
For example, the exercise
また、例えば、運動状態識別部111は、α1<α2<α3なる係数α1、α2、およびα3を用意し、AM≦WSであるAMの数に第1の係数α1をかけ、WS<AM≦RWであるAMの数に第2の係数α2をかけ、およびRW<AMであるAMの数に第3の係数α3をかけ、これらの積の総和を算出してもよい。上記の総和は、WSよりも大きいAMの数が多いほど、大きくなり、さらにRWよりも大きいAMの数が多いほど、大きくなる。運動状態識別部111は、算出された総和を、所定の閾値と比較することによって運動状態を決定してもよい。例えば、運動状態識別部111は、算出された総和が第3の閾値以下である場合は“Sitting”状態を付与し、算出された総和が第4の閾値(ただし第4の閾値>第3の閾値)を超える場合は“Running”状態を付与し、それ以外の場合は“Walking”状態を付与してもよい。Further, for example, the motion
また、例えば、運動状態識別部111は、区間Nxに含まれる期間の各々におけるAMの総和を、所定の閾値と比較することによって運動状態を決定してもよい。例えば、AMの総和が第5の閾値以下である場合は“Sitting”状態を付与し、AMの総和が第6の閾値(ただし第6の閾値>第5の閾値)を超える場合は“Running”状態を付与し、それ以外の場合は“Walking”状態を付与してもよい。
Further, for example, the exercise
以上のようにして、運動状態識別部111は、各区間における被測定者の運動状態を識別する。
As described above, the exercise
運動状態識別部111は、各区間に、識別された運動状態を関連づけた情報を、セグメント生成部112に送出する。運動状態識別部111は、各区間に、識別された運動状態を関連づけた情報を、記憶部119に記録してもよい。
The movement
===セグメント生成部112===
セグメント生成部112は、運動状態識別部111により識別された各区間の運動状態に基づいて、生体情報の時系列データからセグメントを生成する。===
The
セグメント生成部112は、時系列データから、セグメントの各々が、1つの区間から成るか、又は運動状態が同一である連続した区間から成るかのいずれかであるように、複数のセグメントを生成する。
The
例えば、セグメント生成部112は、運動状態が同一である、連続する区間が、同一のセグメントに属し、運動状態が異なる、連続する区間が、異なるセグメントSnおよびSn+1に属するように、分割する。For example, the
具体的には、例えば、セグメント生成部112は、各区間の運動状態を時間順に調べ、運動状態が直前の区間の運動状態から変化しない区間に対しては、その区間を直前の区間と同一のセグメントに属する区間であると設定する。運動状態が直前の区間の運動状態から変化する区間に対しては、セグメント生成部112は、運動状態が変化する直前の区間をそのセグメントの最後の区間に設定し、運動状態が変化した直後の区間を新しいセグメントの最初の区間に設定する。
Specifically, for example, the
セグメント生成部112は、例えば、図2に示されるフローチャートに従った処理を行うことによって、セグメントの生成を行ってもよい。図2のフローチャートは、“i”を、1からk(区間の総数)まで1ずつ増やしながら、Niが属するべきセグメントSnを決定する処理の手順を示す。“n”はセグメントの番号である。全てのnについてSnの初期値はφ(空集合)とする。セグメント生成部112は、まず、nの値を1に、iの値を1に設定した後(ステップS21)、セグメントSnに区間Niを追加する(ステップS22)、すなわち、区間Niの範囲をセグメントSnの範囲に包含させる。その後、セグメント生成部112は、i=kでなければ(ステップS23においてNO)ステップS24の判定処理を行い、i=kであれば(ステップS23においてYES)処理を終了する。ステップS24において、セグメント生成部112は、i番目の区間の運動状態を表す値であるStateiがStatei+1に等しくない場合(ステップS24においてNO)、“n”を1増やした後(ステップS25)、“i”を1増やす(ステップS26)。StateiがStatei+1に等しい場合(ステップS24においてYES)、セグメント生成部112は、“n”を変化させずに“i”を1増やす(ステップS26)。こうすることで、運動状態が同一である連続する区間は、同一のセグメントSnに属し、運動状態が異なる連続する区間は、異なるセグメント(SnまたはSn+1)に属することとなる。ステップS26の後は、セグメント生成部112の処理は、ステップS22の処理に戻る。The
図2のフローチャートの処理が終了した時点で、n個のセグメントSnの生成が完了する。When the processing of the flowchart of FIG. 2 is completed, the generation of n segments Sn is completed.
なお、セグメントが長くなりすぎると、そのセグメントから特徴量を導出するのに膨大な時間がかかるという問題が生じる場合がある。そこで、セグメントの長さに上限が設けられていてもよい。 If the segment becomes too long, there may be a problem that it takes an enormous amount of time to derive the feature amount from the segment. Therefore, an upper limit may be set for the length of the segment.
例えば、全てのセグメントが生成された後、長さが上限(例えば、600秒)を超えるセグメントがある場合、セグメント生成部112は、そのセグメントを分割し、分割後の各セグメントの長さが上限以下になるようにしてもよい。
For example, if there is a segment whose length exceeds the upper limit (for example, 600 seconds) after all the segments are generated, the
あるいは、セグメント生成部112は、セグメントを生成する過程で、セグメントの長さが上限を超えないように各セグメントを生成してもよい。
Alternatively, the
セグメント生成部112は、生成されたセグメントの各々に、セグメントの種類を示すラベルを付与する。ラベルは、セグメントに対する処理方法を区別するために用いられる。セグメント生成部112は、ラベルを、そのセグメントを構成する区間の運動状態に基づき付与する。例えば、“Sitting”状態である区間からなるセグメントに対しては、セグメント生成部112は“Sitting”状態を示すラベルを付与する。同様に、セグメント生成部112は、セグメントに、それぞれ“Sitting”状態、“Walking”状態、または“Running”状態のいずれかを示すラベルを付与してもよい。以下、セグメントに付与されたラベルを、「セグメントのラベル」とも表記する。
The
セグメント生成部112は、生成されたセグメントの情報(すなわち、範囲または区間の組、および付与されたラベルを示す情報)を特徴量導出部113に対して送出する。セグメント生成部112は、生成されたセグメントの情報を記憶部119に記録してもよい。
The
===特徴量導出部113===
特徴量導出部113は、生体情報取得部5により取得された生体情報を、セグメント生成部112により設定されたセグメントごとに分析し、各セグメントの生体情報から特徴量を導出する。===
The feature
図3は、特徴量導出部113によりセグメントごとの特徴量を導出する概念を表す図である。図3に示される例では、生体情報が取得されたt=0からt=tmaxまでの期間が、“Sitting”等のラベルが付与されたセグメントに分けられている。n個のセグメントの長さは不均一であるが、特徴量導出部113は、それぞれのセグメントの時系列データから同数の(図3に示される例では1つの)特徴量(C1からCn)を導出する。FIG. 3 is a diagram showing the concept of deriving the feature amount for each segment by the feature
特徴量は、例えば、データ値の代表値(最大値、最小値、中央値、最頻値、平均値等)でもよいし、時系列データに対して所定の計算を行うことにより得られる値でもよい。特徴量導出部113は、1つのセグメントあたり複数個の特徴量を導出してもよい。
The feature amount may be, for example, a representative value of data values (maximum value, minimum value, median value, mode value, average value, etc.) or a value obtained by performing a predetermined calculation on time series data. good. The feature
例えば、時系列データが心拍変動の時系列データである場合、特徴量導出部113は、特徴量として、HF成分の値、およびLF成分の値を導出してもよい。HF成分およびLF成分の値は、心拍変動の時系列データを周波数成分に変換することで得られる。また、LF成分の値をHF成分の値で除した値であるLF/HFの値も、ストレス推定によく用いられる。特徴量導出部113は、LF/HFの値を特徴量として導出してもよい。
For example, when the time-series data is the time-series data of the heart rate variability, the feature
特徴量導出部113は、各セグメントからの特徴量を統合部114に送出する。特徴量導出部113は、各セグメントと特徴量とが関係づけられた情報を記憶部119に記録してもよい。
The feature
===統合部114===
統合部114は、各セグメントから導出された特徴量を統合して、代表的な特徴量を導出する。代表的な特徴量とは、情報処理の対象となるデータの全体にわたって得られた特徴量を代表する特徴量である。代表的な特徴量が、後述のストレス推定に用いられる。=== Integrated
The
統合部114は、代表的な特徴量を、ラベル別に導出する。すなわち、統合部114は、同一のラベルが付与されたセグメントごとに特徴量を統合し、代表的な特徴量を導出する。
The
図4は、代表的な特徴量の導出の概念を示す図である。図4に示される例は、特徴量導出部113により各々のセグメントから1つずつ導出された、全3種類の特徴量に対して統合を行う例である。この例では、統合により3つの代表的な特徴量(C_sitting、C_walking、およびC_running)が導出される。なお、1つのセグメントから複数の種類の特徴量が導出される場合は、代表的な特徴量は特徴量の種類ごとに導出されてよい。
FIG. 4 is a diagram showing a concept of deriving a typical feature amount. The example shown in FIG. 4 is an example in which all three types of feature quantities, which are derived one by one from each segment by the feature
以下、ラベル別に統合される結果得られる代表的な特徴量を「ラベル別特徴量」と称する。ラベルは運動状態に基づき付与されるので、ラベル別特徴量は、運動状態別の特徴量ということもできる。 Hereinafter, a typical feature amount obtained as a result of integration by label will be referred to as a “feature amount by label”. Since the label is given based on the exercise state, the feature amount for each label can be said to be the feature amount for each exercise state.
特定のラベルに係るラベル別特徴量(すなわち、特定のラベルが付与されたセグメントから導出される特徴量を統合することにより得られる代表的な特徴量)の導出方法の例を、以下で説明する。 An example of a method for deriving the feature amount for each label related to a specific label (that is, a typical feature amount obtained by integrating the feature amount derived from the segment to which the specific label is given) will be described below. ..
統合部114は、例えば、特定のラベルが付与されたセグメントから導出された特徴量のそれぞれを、その特徴量が導出されたセグメントの長さに応じて重みづけを行った上で足し合わせることで、その特定のラベルに係るラベル別特徴量を導出する。
For example, the
例えば、“Sitting”状態を示すラベルが付与された3つのセグメントSa,Sb,Scから、それぞれ特徴量として心拍数の平均値Ra,Rb,Rcが導出された場合、統合部114は、上記3つのセグメントの長さLa,Lb,Lcを重み係数として用いて、
(La・Ra+Lb・Rb+Lc・Rc)/(La+Lb+Lc)
により導出される値を、代表的な特徴量とする。For example, when the average heart rate values Ra, Rb, and Rc are derived as feature amounts from the three segments Sa, Sb, and Sc labeled to indicate the “Sitting” state, the
(La ・ Ra + Lb ・ Rb + Lc ・ Rc) / (La + Lb + Lc)
The value derived from is a typical feature quantity.
重みづけに用いられる重み係数とセグメントの長さとの関係は、必ずしも線形の関係でなくてもよい。HF成分やLF成分等の長周期成分が特徴量に用いられる場合等は、セグメントの長さが長いほど特徴量の信頼性が高くなると考えられる。そのような場合は、長さが長いセグメントから導出される特徴量ほど、重みが長さ分よりも大きくなるように、重み係数が設定されてもよい。 The relationship between the weighting coefficient used for weighting and the length of the segment does not necessarily have to be a linear relationship. When a long-period component such as an HF component or an LF component is used as a feature amount, it is considered that the longer the segment length, the higher the reliability of the feature amount. In such a case, the weighting coefficient may be set so that the feature amount derived from the segment having a long length has a weight larger than the length.
例えば、同じラベルが付与されたQ個のセグメントS1,S2,・・・,SQから、それぞれ特徴量としてC1,C2,・・・,CQが導出されたとする。セグメントSi(i=1,・・・,Q)の長さをLiとすると、セグメント生成部112は、ラベル別特徴量を、任意の正の実数x1、x2(x1<x2)についてf(x1)/x1<f(x2)/x2が成立するような関数fを用いて、
(Σi=1..QCi・f(Li))/(Σi=1..Qf(Li))
により導出してもよい。f(x)=xα(αは任意の1以上の実数)が、関数fの一例である。For example, suppose that C 1 , C 2 , ..., C Q are derived as feature quantities from Q segments S 1 , S 2 , ..., S Q with the same label, respectively. Segment S i (i = 1, ··· , Q) when the length of the L i,
(Σ i = 1..Q C i · f (L i )) / (Σ i = 1..Q f (L i ))
It may be derived by. f (x) = x α (α is an arbitrary real number of 1 or more) is an example of the function f.
このような計算によれば、異なる長さ(第1の長さと第2の長さ)のセグメントから導出された特徴量(第1の特徴量と第2の特徴量)について、代表的な特徴量に対する、第2の特徴量の寄与率と第1の特徴量の寄与率との比は、第2の長さと第1の長さとの比よりも大きくなる。 According to such a calculation, typical features (first feature amount and second feature amount) derived from segments of different lengths (first length and second length) are represented. The ratio of the contribution ratio of the second feature quantity to the contribution ratio of the first feature quantity to the quantity is larger than the ratio of the second length to the first length.
統合部114は、統合によって導出された、ラベル別の代表的な特徴量を、ストレス推定部115に対して送出する。
The
===ストレス推定部115===
ストレス推定部115は、統合部114により導出された代表的な特徴量から、被測定者のストレスの度合い(ストレスの強さ、またはレベルと言い換えられてもよい)を判定する。===
The
ストレス推定部115は、例えば、予め訓練データセットを用いた学習により生成されたストレス推定モデルを有する。そして、ストレス推定部115は、代表的な特徴量にストレス推定モデルを適用し、出力としてストレスの度合いを示す情報を導出する。
The
ストレス推定モデルは、少なくとも1つのラベル別特徴量を入力とする。ストレス推定モデルは、運動状態とラベル別特徴量の組を入力とするモデルでもよい。ストレス推定モデルは、複数の運動状態と、当該複数の運動状態のそれぞれに係るラベル別特徴量との組を入力とするモデルでもよい。ストレスの度合いを示す情報は、例えば、「問題なし」または「問題あり」の二値でもよいし、「ストレスの度合いはxx%」のように、数値で表される情報でもよい。 The stress estimation model inputs at least one label-specific feature amount. The stress estimation model may be a model in which a set of a motion state and a feature amount for each label is input. The stress estimation model may be a model in which a set of a plurality of exercise states and a label-specific feature amount related to each of the plurality of exercise states is input. The information indicating the degree of stress may be a binary value of "no problem" or "problem", or may be numerical information such as "the degree of stress is xx%".
訓練データセットは、例えば、ストレスの度合いが既知である人物から得られたラベル別特徴量のデータセットである。訓練データセットを用意するために人物のストレスの度合いを知る方法としては、例えば、アンケートによるストレスの度合いの調査等、ストレスの度合いを生体情報以外の情報から得る方法が採用されればよい。 The training data set is, for example, a data set of label-specific features obtained from a person whose degree of stress is known. As a method of knowing the degree of stress of a person in order to prepare a training data set, a method of obtaining the degree of stress from information other than biometric information, such as a survey of the degree of stress by a questionnaire, may be adopted.
===情報出力部116===
情報出力部116は、生体情報処理装置11による処理の結果を示す情報を出力する。===
The
例えば、情報出力部116は、情報を、表示装置に出力することで、情報を表示装置に表示させる。
For example, the
情報出力部116は、生体情報処理装置11以外の装置に情報を送信してもよい。例えば、情報出力部116は生体情報取得部5に情報を送信してもよい。生体情報取得部5が情報を表示する機能を有している場合、生体情報取得部5は受信した情報を表示してもよい。このような構成によれば、被測定者は生体情報処理装置11による処理の結果を知ることが可能となる。
The
情報出力部116は、記憶装置に情報を出力することで、情報を記憶装置に記憶させてもよい。記憶装置は、例えば、HDD(Hard Disk Drive)やSSD(Solid State Drive)等の非一時的な記憶装置でもよいし、RAM(Random Access Memory)等の一時的な記憶装置でもよい。被測定者等の人物が、当該記憶装置に記憶された情報にアクセスすれば、その人物は生体情報処理装置11による処理の結果を知ることが可能となる。
The
情報出力部116が出力する情報は、例えば、ストレスの度合いを示す情報である。ストレスの度合いを示す情報は、被測定者の状態に関する情報であるとも言える。情報出力部116は、各セグメントから導出された特徴量、代表的な特徴量、および全体の特徴量等を出力してもよい。
The information output by the
<動作>
次に、図5のフローチャートを参照しながら生体情報処理装置11の動作の流れを説明する。<Operation>
Next, the operation flow of the biometric
まず、生体情報処理装置11の制御部110が、生体情報と動き情報とを受け取る(ステップS110)。制御部110は、生体情報と動き情報とを記憶部119に記録してもよい。
First, the
次に、運動状態識別部111が、動き情報取得部6により取得された動き情報に基づき、各区間の運動状態を識別する(ステップS111)。
Next, the motion
次に、セグメント生成部112が、各区間の運動状態に基づき、データのセグメントの生成を行う(ステップS112)。
Next, the
次に、特徴量導出部113が、各セグメントから特徴量を導出する(ステップS113)。
Next, the feature
次に、統合部114が、ラベル別に特徴量を統合し、ラベル別特徴量を導出する(ステップS114)。
Next, the
次に、ストレス推定部115が、被測定者のストレスの度合いを判定する(ステップS115)。
Next, the
そして、情報出力部116が、生体情報処理装置11による情報処理の結果を出力する(ステップS116)。すなわち、情報出力部116は、例えば、被測定者のストレスの度合いを示す情報を出力する。
Then, the
<効果>
第1の実施形態に係る生体情報処理装置11によれば、運動状態による生体情報への影響を考慮しながら、生体情報を処理し、精度の良いストレス推定を行うことができる。<Effect>
According to the biometric
その理由は、特徴量導出部113および統合部114によりラベル別(運動状態別)に代表的な特徴量が導出され、ストレス推定部115がその代表的な特徴量とストレスモデルとに基づいてストレス推定を行うからである。
The reason is that the feature
また、生体情報処理装置11は、運動状態の変化を柔軟に検出しながら、セグメントの長さを十分に長くすることができるため、精度のよいストレス推定を行うことができる。
Further, since the biometric
運動状態の変化を柔軟に検出できる理由は、区間の長さ(Ts)が、セグメントの長さとは無関係に、任意の値(例えば1秒等)に設定可能であるからである。 The reason why the change in the motion state can be flexibly detected is that the length of the section (Ts) can be set to an arbitrary value (for example, 1 second) regardless of the length of the segment.
セグメントの長さを十分に長くすることができる理由は、セグメント生成部112が、区間をセグメントとして生成するのではなく、同一の運動状態が付与された連続した区間が同一のセグメントに属するように、セグメントを生成するからである。
The reason why the length of the segment can be made sufficiently long is that the
以上のように、本実施形態に係る生体情報処理装置11は、セグメントごとに導出される特徴量を用いた分析を、より高精度に行うことができる、という効果がある。
As described above, the biometric
特に、特徴量が、HF成分およびLF成分の値のように、セグメントが長いほど精度よく検出される情報であれば、上述の効果は大きい。 In particular, if the feature amount is information that can be detected more accurately as the segment becomes longer, such as the values of the HF component and the LF component, the above-mentioned effect is large.
<<変形例>>
[変形例1]運動が生体情報に反映される時間の考慮
生体情報の中には、心拍や発汗等、運動状態が変化してからある程度の期間が経ってから運動状態の影響が反映される生体情報がある。そのような生体情報がストレス推定に用いられる一つの実施形態では、セグメント生成部112は、運動状態が変化する区間からY秒(Yは非負の実数)後の時点をセグメントの境界に設定してもよい。<< Modification example >>
[Modification 1] Consideration of time when exercise is reflected in biological information The influence of exercise state is reflected in biological information after a certain period of time has passed since the exercise state changed, such as heartbeat and sweating. There is biometric information. In one embodiment in which such biometric information is used for stress estimation, the
言い換えれば、セグメント生成部112は、運動状態が変化した時点からY1秒後の時点から、次に運動状態が変化した時点からY2秒後の時点までを、1つのセグメントの範囲として設定してもよい。それぞれのY(上記のY1、Y2等)の値は、等しくなくてもよい。例えば、Yの値は、運動状態の変化のパターン(“Sitting”状態から“Walking”状態への変化であるか、“Walking”状態から“Sitting”状態への変化であるか、等)に応じて異なる値でもよい。In other words, the
なお、Yの値は、区間の長さの整数倍でもよいし、そうでなくてもよい。 The value of Y may or may not be an integral multiple of the length of the interval.
あるいは、セグメント生成部112は、運動状態が変化した時点からY秒間の期間を含まないように、セグメントを生成してもよい。すなわち、セグメント生成部112は、運動状態が変化した時点からY秒後の時点から、次に運動状態が変化する時点までの期間を、1つのセグメントの範囲として設定してもよい。
Alternatively, the
セグメント生成部112は、まず、図2に示されるフローチャートに従って仮のセグメントを生成した後、その仮のセグメントから、運動状態が変化した時点からY秒間の期間を除いた期間を、真のセグメント(すなわち、特徴量導出部113による処理の対象となるセグメント)として生成してもよい。
The
運動状態が変化した時点から所定の時間の経過後までの期間を考慮してセグメントを設定することで、より正確に生体情報と運動状態とが関連づけられる。これにより、運動状態の変化の影響を受けるまでに時間がかかる生体情報を用いたストレス推定の精度を、向上させることができる。特に、運動状態が遷移する時点から所定の時間後の時点をセグメントの始点として設定することで、運動状態が遷移した直後の生体情報を用いることによるストレス推定の精度の悪化を防ぐことができる。 By setting the segment in consideration of the period from the time when the exercise state changes to the time after the lapse of a predetermined time, the biological information and the exercise state can be more accurately associated with each other. This makes it possible to improve the accuracy of stress estimation using biological information, which takes time to be affected by changes in the motor state. In particular, by setting a time point after a predetermined time from the time when the exercise state changes as the start point of the segment, it is possible to prevent deterioration of the accuracy of stress estimation due to the use of biological information immediately after the change of the exercise state.
[変形例2]全体の特徴量の導出
一つの実施形態では、統合部114は、情報処理の対象となるデータの全範囲に含まれるすべてのセグメントを統合し、全体の特徴量を導出してもよい。例えば、統合部114は、ラベルごとに導出されたラベル別特徴量を統合することで、全体の特徴量を導出してもよい。[Modification 2] Derivation of the entire feature amount In one embodiment, the
そして、ストレス推定部115は、全体の特徴量とストレスとの関係を学習することによって得られたストレス推定モデルを用いて、全体の特徴量からストレスの度合いを推定してもよい。
Then, the
統合部114は、全体の特徴量を導出する際、ラベル別特徴量のそれぞれに対して、ラベルに応じた補正または重みづけの少なくともいずれかを行ってもよい。
When deriving the entire feature amount, the
例えば、特徴量が、平均体温等、運動の強さと相関がある特徴量であるような場合、統合部114は、“Walking”状態に係るラベル別特徴量をV1減じ、“Walking”状態に係るラベル別特徴量をV2減じる補正を行ってもよい。V1およびV2は、ラベルが表す運動状態に応じて定められる値である。V1およびV2は、運動状態と特徴量の変化との関係に関する知見に基づいて適切に設定されればよい。For example, feature quantity, average body temperature, etc., if such a strong and characteristic amount having a correlation of motion, integrating
また、特徴量が、その精度が運動の強さと相関があるような特徴量である場合、統合部114は、その精度に応じた重みづけを行った上で、全体の特徴量を導出してもよい。
Further, when the feature amount is a feature amount whose accuracy correlates with the strength of motion, the
例えば、運動量が少ない場合に付与される運動状態(例えば“Sitting”状態)では、生体情報は、主に精神的な状態に依存すると考えられる。運動量が多い場合に付与される運動状態(例えば“Running”状態)では、生体情報は運動状態の影響を強く受けると考えられる。このようなことから、運動の強さが強い時の特徴量ほど、ストレス推定に用いる値としての精度は悪くなると考えられる。 For example, in the exercise state (for example, "Sitting" state) given when the amount of exercise is small, it is considered that the biological information mainly depends on the mental state. In the exercise state (for example, "Running" state) given when the amount of exercise is large, it is considered that the biological information is strongly influenced by the exercise state. From this, it is considered that the more the feature amount when the exercise intensity is strong, the worse the accuracy as the value used for stress estimation.
そこで、統合部114は、例えば、“Sitting”状態と識別されたセグメントの重みが、“Walking”状態および“Running”状態と識別されたセグメントの重みよりも大きくなるような重みづけを行った上で、全体の特徴量を導出してもよい。そうすることで、より信頼性の高い特徴量がより大きく重みづけられた、全体の特徴量が導出される。
Therefore, for example, the
重みづけに用いられる重み係数は、例えば、0から1の範囲の実数である。数値が大きいほど、重みが大きくなるとする。重み係数は、“Sitting”状態を示すラベルが付与されたセグメントの重みを1、“Walking”または“Running”状態を示すラベルが付与されたセグメントの重みを0、としてもよい。この場合、“Sitting”状態を示すラベルが付与されたセグメントから得られる特徴量のみが全体の特徴量に反映される。このように、運動の強さが比較的低い期間の特徴量のみをストレス推定に用いれば、より正確なストレス推定を行うことができる。
The weighting factor used for weighting is, for example, a real number in the
以上のようにして導出される全体の特徴量は、運動状態に応じて補正または重みづけの少なくともいずれかがされた上で導出されるため、この全体の特徴量に基づいて、より精度のよいストレス推定が行える。 Since the total feature quantity derived as described above is derived after at least one of correction and weighting is performed according to the motion state, the overall feature quantity is more accurate based on the total feature quantity. Stress estimation can be performed.
(変形例2の更なる変形例)
上記のように、統合部114が全体の特徴量を導出する場合、セグメント生成部112が、各セグメントに対し、運動状態を示すラベルの代わりに、信頼度を付与してもよい。セグメントに付与される信頼度は、そのセグメントから導出される特徴量が高精度なストレス推定のための情報として有用であることの信頼性の高さを示す。信頼度関連づけ部128は、信頼性がより高いセグメントに、より高い信頼度を関連づける。上述の重み係数は、信頼度の一例である。(Further modification example of modification 2)
As described above, when the
そして、統合部114は、信頼度がより大きいセグメントから導出された特徴量の重みがより大きくなるように、各セグメントから導出される特徴量を重みづけした上で、全体の特徴量を導出すればよい。これにより、信頼性がより高いセグメントから導出される特徴量が、全体の特徴量により大きく寄与する。
Then, the
セグメント生成部112は、各セグメントの信頼度を、当該セグメントにおける被測定者の運動状態に基づき決定してもよい。例えば、セグメント生成部112は、被測定者がより強い運動状態にあるときのセグメントに対しては、より小さい信頼度を付与する。
The
なお、セグメントにおける被測定者の運動状態は、セグメントを構成する区間の運動状態である。セグメントを構成する区間の運動状態が一つでない場合は、セグメントにおける被測定者の運動状態は、セグメントを構成する区間のそれぞれに付与された運動状態のうち、支配的な運動状態である。支配的な運動状態とは、例えば、セグメントを構成する区間の運動状態のうち数が最も多い運動状態でもよいし、セグメントの代表的な時点(例えば、中央の時点、または終了時点等)を含む区間の運動状態でもよい。 The exercise state of the person to be measured in the segment is the exercise state of the section constituting the segment. When there is more than one motion state in the section constituting the segment, the motion state of the subject in the segment is the dominant motion state among the motion states given to each of the sections constituting the segment. The dominant motion state may be, for example, the motion state having the largest number of motion states in the section constituting the segment, or includes a representative time point of the segment (for example, a center time point or an end time point). The exercise state of the section may be used.
セグメント生成部112が各セグメントに対し信頼度を付与する実施形態では、セグメント生成部112は、各セグメントの運動状態を決定する処理を省略してもよい。セグメント生成部112は、各セグメントの信頼度を、当該セグメントから導出される特徴量に影響を与える期間のAMに基づき決定してもよい。セグメントから導出される特徴量に影響を与える期間とは、例えばある期間におけるAMがY秒後に特徴量に影響する場合、セグメントの範囲をY秒前にずらした範囲に含まれる期間である。
In the embodiment in which the
セグメント生成部112は、例えば、セグメントから導出される特徴量に影響を与える期間のAMの代表値(最大値、最小値、中央値、最頻値、平均値等)が、大きいほど、より低い信頼度を、当該セグメントに付与してもよい。セグメント生成部112は、他にも、AMの分布や、所定値を超えるAMの個数等に基づいて、信頼性がより低いセグメントにより低い信頼度を付与してもよい。
In the
セグメント生成部112が各セグメントに対し信頼度を付与する実施形態では、特徴量導出部113は、信頼度として0が付与されたセグメントからは特徴量を導出しなくてもよい。記憶部119は、信頼度として0が付与されたセグメントの範囲の時系列データを記憶しなくてもよい。これにより、生体情報処理装置11にかかる負荷を軽減することができる。
In the embodiment in which the
[変形例3]セグメントの取捨
一つの実施形態では、セグメント生成部112は、所定の長さに満たないセグメントを、特徴量が導出されるセグメントから除外してもよい。言い換えれば、特徴量導出部113は、所定の長さ未満のセグメントからは特徴量を導出せず、所定の長さ以上のセグメントのみから特徴量を導出してもよい。[Modification 3] Separation of segment In one embodiment, the
これにより、より長いデータから導出されるほど精度よく検出される特徴量が、一定の精度で検出されることが保証される。 This guarantees that the feature amount that is detected more accurately as it is derived from the longer data is detected with a certain accuracy.
[変形例4]情報の取得と情報処理の並行
一つの実施形態では、生体情報処理装置11は、生体情報および動き情報を受け取りながら、生体情報および動き情報に対する処理を行ってもよい。[Modification 4] Parallelization of Information Acquisition and Information Processing In one embodiment, the biometric
そのような実施形態では、例えば、運動状態識別部111は、一定の長さの区間の生体情報および動き情報が取得されたら、随時、当該区間の運動状態を識別する。セグメント生成部112は、順次運動状態が識別される区間に対して、当該区間においてセグメントを切り替えるか否かを判定する。セグメント生成部112は、当該区間の運動状態が、直前の区間の運動状態から変化していない場合は、セグメントを切り替えない。セグメント生成部112は、当該区間の運動状態が、直前の区間の運動状態から変化している場合は、セグメントを切り替える。すなわち、セグメント生成部112は、運動状態が変化した時点を現行のセグメントの終了点、および、新たなセグメントの開始点とする。
In such an embodiment, for example, the motion
このような実施形態と上記変形例3の構成との組み合わせにより、セグメント生成部112は、セグメントが生成されたら、生成されたセグメントに信頼度を付与してもよい。そして、セグメント生成部112は、信頼度として“0”が付与されたセグメントの時系列データを消去してもよい。すなわち、セグメント生成部112は、時系列データのうち、特徴量導出部113による特徴量の導出に使用されないと判断された部分があれば、その部分の時系列データを消去してもよい。
By combining such an embodiment with the configuration of the above-described third modification, the
特徴量導出部113は、セグメントが生成されたら、生成されたセグメントから特徴量を導出してもよい。そして、特徴量導出部113は、特徴量が導出されたセグメントの時系列データを消去してもよい。
When the segment is generated, the feature
このようにリアルタイムで情報処理を行うことにより、使用済みのデータまたは不要なデータを全範囲の測定が完了するまで保持しておく必要が無く、生体情報処理装置11の負荷を少なくすることができる。
By performing information processing in real time in this way, it is not necessary to retain used data or unnecessary data until the measurement of the entire range is completed, and the load on the biometric
<<第2の実施形態>>
一つの実施形態では、統合部114による特徴量の統合の処理を経ずに、ストレス推定が行われてもよい。<< Second Embodiment >>
In one embodiment, stress estimation may be performed without the process of integrating the feature quantities by the
図6は、第2の実施形態に係る生体情報処理システム2の構成を示すブロック図である。第2の実施形態では、生体情報処理装置12は、統合部114の代わりに特徴量割当部124を、およびストレス推定部115の代わりにストレス推定部125を、備える。特徴量割当部124およびストレス推定部125以外の構成要素は、第1の実施形態の構成要素と同じでよい。
FIG. 6 is a block diagram showing a configuration of the biometric information processing system 2 according to the second embodiment. In the second embodiment, the biometric
特徴量割当部124は、特徴量導出部113により導出された特徴量に基づき、各区間に特徴量を割り当てる。第1の実施形態では統合によって運動状態ごとに代表的な特徴量が決定されるのに対し、第2の実施形態では割り当てによって区間ごとに特徴量が決定される。ただし、決定される特徴量は、セグメントから導出された特徴量に基づく特徴量である。
The feature
以下、具体例を挙げながら、特徴量の割り当て方法を説明する。例えば、特徴量導出部113により、区間Na,Nb,Ncからなるセグメントから、特徴量としてLF/HFの値Cxが導出されたとする。この場合、特徴量割当部124は、特徴量Cxを、区間Na、区間Nb、および、区間Ncに割り当てられる特徴量として、決定すればよい。
Hereinafter, a method of allocating the feature amount will be described with reference to a specific example. For example, it is assumed that the feature
図7は、図3に示されるように各セグメントから特徴量が導出された場合の、各区間に割り当てられる特徴量を示す概念図である。例えば、セグメントS1に含まれる区間N1〜N4には、それぞれ、セグメントS1から導出された特徴量C1が割り当てられる。FIG. 7 is a conceptual diagram showing the feature amount assigned to each section when the feature amount is derived from each segment as shown in FIG. For example, the
このように、導出される特徴量が、その値がセグメントの長さに依存しない特徴量であれば、特徴量割当部124は、その特徴量をそのまま、その特徴量が導出されたセグメントを構成する区間に割り当てればよい。
In this way, if the derived feature amount is a feature amount whose value does not depend on the length of the segment, the feature
導出される特徴量が、その値がセグメントの長さに比例する特徴量(特徴的な信号の累積値等)であれば、特徴量割当部124は、その特徴量を、特徴量が導出されたセグメントを構成する区間の数で除した値を、その特徴量が導出されたセグメントを構成する区間に割り当てればよい。
If the derived feature amount is a feature amount whose value is proportional to the length of the segment (cumulative value of characteristic signals, etc.), the feature
このようにして割り当てられた特徴量は、セグメントの長さの時系列データから導出された特徴量に基づくため、一つの区間(Na等)のみから導出される場合に比べて、精度が良いことが期待される。 Since the features assigned in this way are based on the features derived from the time-series data of the segment length, the accuracy is better than when derived from only one section (Na, etc.). There is expected.
特徴量割当部124は、割り当てられた特徴量を、例えば、記憶部119に記録してもよい。これにより、記憶部119には、運動状態が付与された区間と特徴量との組が記憶される。特徴量割当部124が計測データの全範囲に含まれる区間の全てに対して特徴量を割り当てれば、区間ごとの特徴量と運動状態との組の変遷を示すデータが生成される。
The feature
ストレス推定部125は、特徴量割当部124により割り当てられた各区間の特徴量を用いて、ストレスを推定する。
The
ストレス推定部125は、例えば、予め訓練データセットを用いた学習により生成されたストレス推定モデルを有する。そして、ストレス推定部125は、特徴量割当部124により決定された各区間の特徴量にストレス推定モデルを適用し、出力としてストレスの度合いを示す情報を導出する。ストレスの度合いを示す情報は第1の実施形態の説明で説明された情報と同様でよい。
The
ストレス推定モデルは、例えば、区間の運動状態と特徴量との組を入力とする。ストレス推定モデルは、区間ごとの特徴量と運動状態との組の変遷を入力とするモデルでもよい。区間ごとの特徴量と運動状態との組の変遷は、特徴量の統合により生成する代表的な特徴量と運動状態の組に比べ情報量が多いため、より精度のよいストレス推定ができることが期待される。 In the stress estimation model, for example, a set of a motion state of a section and a feature amount is input. The stress estimation model may be a model in which the transition of the set of the feature amount and the exercise state for each section is input. Since the transition of the set of the feature amount and the motion state for each section has more information than the typical feature amount and the set of the motion state generated by the integration of the feature amount, it is expected that more accurate stress estimation can be performed. Will be done.
図8は、第2の実施形態に係る生体情報処理装置12の動作の流れを示すフローチャートである。ステップS110からステップS113の処理、およびステップS116の処理は、第1の実施形態で説明された同符号の処理と同様でよい。生体情報処理装置12の処理は、生体情報処理装置11の処理に比べると、ステップS114およびステップS115の処理の代わりに、ステップS124およびステップS125の処理を含む。
FIG. 8 is a flowchart showing an operation flow of the biometric
ステップS124では、特徴量割当部124が、ステップS113の処理により導出された特徴量に基づき、各区間に特徴量を割り当てる。
In step S124, the feature
ステップS125では、ストレス推定部125が、特徴量割当部124により割り当てられた各区間の特徴量を用いて、ストレスを推定する。
In step S125, the
第2の実施形態によれば、より精度のよいストレス推定ができる。その理由は、既に述べた通りである。 According to the second embodiment, more accurate stress estimation can be performed. The reason is as already mentioned.
<<第3の実施形態>>
一つの実施形態に係る生体情報処理装置13について説明する。<< Third Embodiment >>
The biometric
図9は、生体情報処理装置13の構成を示すブロック図である。生体情報処理装置13は、セグメント生成部101と、特徴量導出部102と、出力部103とを含む。
FIG. 9 is a block diagram showing the configuration of the biometric
セグメント生成部101は、被測定者の生体情報の時系列データから、生体情報が取得された期間における被測定者の運動状態に基づいて、時系列データの部分であるセグメントを生成する。上記各実施形態のセグメント生成部112は、セグメント生成部101の一例である。
The
運動状態は、例えば、数種類のパラメータである。セグメント生成部101は、運動状態が同じである期間(すなわち、同じ運動状態が継続する期間)の一部または全部を、セグメントの期間として設定してもよい。
The state of motion is, for example, several types of parameters. The
特徴量導出部102は、セグメントから特徴量を導出する。上記各実施形態の特徴量導出部113は、特徴量導出部102の一例である。
The feature
出力部103は、特徴量、および特徴量に基づく被測定者の状態に関する情報の、少なくともいずれかを出力する。上記各実施形態の情報出力部116は、出力部103の一例である。
The
図10は、生体情報処理装置13の動作の流れを示すフローチャートである。
FIG. 10 is a flowchart showing the operation flow of the biometric
ステップS101において、セグメント生成部101が、被験者の運動状態に基づいて、時系列データからセグメントを生成する。
In step S101, the
ステップS102において、特徴量導出部102が、セグメントから特徴量を導出する。
In step S102, the feature
ステップS103において、出力部103が、特徴量、および特徴量に基づく被測定者の状態に関する情報の、少なくともいずれかを出力する。
In step S103, the
生体情報処理装置13によれば、セグメントごとに導出される特徴量を用いた分析を、より高精度に行うことができる。その理由は、セグメント生成部101が、被験者の運動状態に基づいてセグメントを生成することで、正確に運動状態が識別され、かつ、検出される特徴量の精度を保証することができるからである。検出される特徴量の精度を保証することができる理由は、セグメントの長さが運動状態を識別する単位と同一であるという制限がないからである。
According to the biometric
<実施形態の各部を実現するハードウェアの構成>
以上、説明した本発明の各実施形態において、各装置の各構成要素は、機能単位のブロックを示している。<Hardware configuration that realizes each part of the embodiment>
In each embodiment of the present invention described above, each component of each device indicates a block of functional units.
各構成要素の処理は、例えば、コンピュータシステムが、コンピュータ読み取り可能な記憶媒体により記憶された、その処理をコンピュータシステムに実行させるプログラムを、読み込み、実行することによって、実現されてもよい。「コンピュータ読み取り可能な記憶媒体」は、例えば、光ディスク、磁気ディスク、光磁気ディスク、および不揮発性半導体メモリ等の可搬媒体、ならびに、コンピュータシステムに内蔵されるROM(Read Only Memory)およびハードディスク等の記憶装置である。「コンピュータ読み取り可能な記憶媒体」は、インターネット等のネットワークや電話回線等の通信回線を介してプログラムを送信する場合の通信線のように、短時間の間、動的にプログラムを保持するもの、その場合のサーバやクライアントにあたるコンピュータシステム内部の揮発性メモリのように、プログラムを一時的に保持しているものも含む。また上記プログラムは、前述した機能の一部を実現するためのものであってもよく、更に前述した機能をコンピュータシステムにすでに記憶されているプログラムとの組み合わせで実現できるものであってもよい。 The processing of each component may be realized, for example, by the computer system reading and executing a program stored in a computer-readable storage medium and causing the computer system to execute the processing. The "computer-readable storage medium" includes, for example, portable media such as optical disks, magnetic disks, magneto-optical disks, and non-volatile semiconductor memories, and ROMs (Read Only Memory) and hard disks built in computer systems. It is a storage device. A "computer-readable storage medium" is one that dynamically holds a program for a short period of time, such as a communication line when a program is transmitted via a network such as the Internet or a communication line such as a telephone line. In that case, it also includes the one that temporarily holds the program, such as the volatile memory inside the computer system that corresponds to the server or client. Further, the above-mentioned program may be a program for realizing a part of the above-mentioned functions, and may be a program for realizing the above-mentioned functions in combination with a program already stored in the computer system.
「コンピュータシステム」とは、一例として、図11に示されるようなコンピュータ900を含むシステムである。コンピュータ900は、以下のような構成を含む。
・1つまたは複数のCPU(Central Processing Unit)901
・ROM902
・RAM903
・RAM903へロードされるプログラム904Aおよび記憶情報904B
・プログラム904Aおよび記憶情報904Bを格納する記憶装置905
・記憶媒体906の読み書きを行うドライブ装置907
・通信ネットワーク909と接続する通信インタフェース908
・データの入出力を行う入出力インタフェース910
・各構成要素を接続するバス911The "computer system" is, for example, a system including a
-One or more CPUs (Central Processing Units) 901
-ROM902
・ RAM903
-Program 904A and
A
-
-I /
-Bus 911 connecting each component
例えば、各実施形態における各装置の各構成要素は、その構成要素の機能を実現するプログラム904AをCPU901がRAM903にロードして実行することで実現される。各装置の各構成要素の機能を実現するプログラム904Aは、例えば、予め、記憶装置905やROM902に格納される。そして、必要に応じてCPU901がプログラム904Aを読み出す。記憶装置905は、例えば、ハードディスクである。プログラム904Aは、通信ネットワーク909を介してCPU901に供給されてもよいし、予め記憶媒体906に格納されており、ドライブ装置907に読み出され、CPU901に供給されてもよい。なお、記憶媒体906は、例えば、光ディスク、磁気ディスク、光磁気ディスク、および不揮発性半導体メモリ等の、可搬媒体である。
For example, each component of each device in each embodiment is realized by the
各装置の実現方法には、様々な変形例がある。例えば、各装置は、構成要素毎にそれぞれ別個のコンピュータ900とプログラムとの可能な組み合わせにより実現されてもよい。また、各装置が備える複数の構成要素が、一つのコンピュータ900とプログラムとの可能な組み合わせにより実現されてもよい。
There are various modifications in the method of realizing each device. For example, each device may be implemented by a possible combination of a
また、各装置の各構成要素の一部または全部は、その他の汎用または専用の回路、コンピュータ等やこれらの組み合わせによって実現されてもよい。これらは、単一のチップによって構成されてもよいし、バスを介して接続される複数のチップによって構成されてもよい。 In addition, some or all of the components of each device may be realized by other general-purpose or dedicated circuits, computers, or a combination thereof. These may be composed of a single chip or may be composed of a plurality of chips connected via a bus.
各装置の各構成要素の一部または全部が複数のコンピュータや回路等により実現される場合には、複数のコンピュータや回路等は、集中配置されてもよいし、分散配置されてもよい。例えば、コンピュータや回路等は、クライアントアンドサーバシステム、クラウドコンピューティングシステム等、各々が通信ネットワークを介して接続される形態として実現されてもよい。 When a part or all of each component of each device is realized by a plurality of computers, circuits, etc., the plurality of computers, circuits, etc. may be centrally arranged or distributed. For example, a computer, a circuit, or the like may be realized as a form in which each is connected via a communication network, such as a client-and-server system or a cloud computing system.
上記実施形態の一部または全部は以下の付記のようにも記載され得るが、以下には限られない。 Some or all of the above embodiments may also be described, but not limited to:
<<付記>>
[付記1]
被測定者の生体情報の時系列データから、前記生体情報が取得された期間における前記被測定者の運動状態に基づいて前記時系列データの部分であるセグメントを生成する、セグメント生成手段と、
前記セグメントから特徴量を導出する特徴量導出手段と、
前記特徴量、および前記特徴量に基づく前記被測定者の状態に関する情報の、少なくともいずれかを出力する出力手段と、
を備える生体情報処理装置。
[付記2]
前記セグメント生成手段は、前記運動状態が同じである期間の一部または全部を前記セグメントの期間として設定する、
付記1に記載の生体情報処理装置。
[付記3]
前記セグメント生成手段は、前記運動状態が遷移する時点から所定の時間後の時点を前記セグメントの始点として設定する、
付記1または2に記載の生体情報処理装置。
[付記4]
前記特徴量導出手段は、所定の長さ未満の前記セグメントからは前記特徴量を導出しない、
付記1から3のいずれか一つに記載の生体情報処理装置。
[付記5]
前記セグメント生成手段は、複数の前記セグメントに、当該セグメントにおける前記運動状態に基づくラベルを付与し、
前記生体情報処理装置は、前記ラベルが同一である複数の前記セグメントから導出される前記特徴量を統合することで、代表的な特徴量を導出する統合手段を備え、
前記出力手段は、前記代表的な特徴量、および前記代表的な特徴量に基づく前記被測定者の状態に関する情報の、少なくともいずれかを出力する、
付記1から4のいずれか一つに記載の生体情報処理装置。
[付記6]
前記統合手段は、第1の長さの第1のセグメントから導出される第1の特徴量と、前記第1のセグメントよりも長い第2の長さの第2のセグメントから導出される第2の特徴量とを統合する場合に、前記代表的な特徴量に対する、前記第2の特徴量の寄与率と前記第1の特徴量の寄与率との比が、前記第2の長さと前記第1の長さとの比よりも大きくなるように、前記第1の特徴量および前記第2の特徴量に重みを付与し、前記重みに基づいて前記第1の特徴量と前記第2の特徴量を統合する、
付記5に記載の生体情報処理装置。
[付記7]
前記代表的な特徴量とストレスとの関係の学習により生成されたストレス推定モデルに基づき、前記被測定者のストレスの度合いを推定するストレス推定手段をさらに備え、
前記出力手段は、前記ストレスの度合いを前記被測定者の状態に関する情報として出力する、
付記5または6に記載の生体情報処理装置。
[付記8]
前記セグメント生成手段は、複数の前記セグメントのそれぞれに、当該セグメントにおける前記運動状態および当該セグメントの長さの少なくともいずれかに基づく、当該セグメントから導出される前記特徴量の精度に対する信頼性の高さを示す信頼度を付与し、
前記生体情報処理装置は、前記複数のセグメントの各々から導出される前記特徴量を、前記信頼度に応じた重みづけを行った上で統合することで全体の特徴量を導出する統合手段を備え、
前記出力手段は、前記全体の特徴量、および前記全体の特徴量に基づく前記被測定者の状態に関する情報の、少なくともいずれかを出力する、
付記1に記載の生体情報処理装置。
[付記9]
前記セグメント生成手段は、所定の長さ未満の前記セグメントに対しては最も低い前記信頼度を付与する、付記8に記載の生体情報処理装置。
[付記10]
前記セグメントは、前記運動状態が割り当てられた区間の1つ以上の組を含み、
前記生体情報処理装置は、
前記セグメントから導出された前記特徴量に基づく値を、当該セグメントを構成する前記区間のそれぞれに割り当てる特徴量割当手段と、
前記区間に割り当てられた前記特徴量と前記運動状態との組の変動を入力とするストレス推定モデルを用いて、前記被測定者のストレスの度合いを推定するストレス推定手段と、
を備える付記1に記載の生体情報処理装置。
[付記11]
付記1から10のいずれか一つに記載の生体情報処理装置と、
前記生体情報を取得する生体情報取得手段と、
前記被測定者の動きを表す動き情報を取得する動き情報取得手段と、を含み、
前記生体情報処理装置は、前記動きを表す情報に基づき前記運動状態を識別する運動状態識別手段を備える、
生体情報処理システム。
[付記12]
被測定者の生体情報の時系列データから、前記生体情報が取得された期間における前記被測定者の運動状態に基づいて前記時系列データの部分であるセグメントを生成し、
前記セグメントから特徴量を導出し、
前記特徴量、および前記特徴量に基づく前記被測定者の状態に関する情報の、少なくともいずれかを出力する、
生体情報処理方法。
[付記13]
前記セグメントの生成において、前記運動状態が同じである期間の一部または全部を前記セグメントの期間として設定する、
付記12に記載の生体情報処理方法。
[付記14]
前記セグメントの生成において、前記運動状態が遷移する時点から所定の時間後の時点を前記セグメントの始点として設定する、
付記12または13に記載の生体情報処理方法。
[付記15]
前記特徴量の導出において、所定の長さ未満の前記セグメントからは前記特徴量を導出しない、
付記12から14のいずれか一つに記載の生体情報処理方法。
[付記16]
前記セグメントの生成において、複数の前記セグメントに、当該セグメントにおける前記運動状態に基づくラベルを付与し、
前記ラベルが同一である複数の前記セグメントから導出される前記特徴量を統合することで、代表的な特徴量を導出し、
前記代表的な特徴量、および前記代表的な特徴量に基づく前記被測定者の状態に関する情報の、少なくともいずれかを出力する、
付記12から15のいずれか一つに記載の生体情報処理方法。
[付記17]
第1の長さの第1のセグメントから導出される第1の特徴量と、前記第1のセグメントよりも長い第2の長さの第2のセグメントから導出される第2の特徴量とを統合する場合に、前記代表的な特徴量に対する、前記第2の特徴量の寄与率と前記第1の特徴量の寄与率との比が、前記第2の長さと前記第1の長さとの比よりも大きくなるように、前記第1の特徴量および前記第2の特徴量に重みを付与し、前記重みに基づいて前記第1の特徴量と前記第2の特徴量を統合する、
付記16に記載の生体情報処理方法。
[付記18]
前記代表的な特徴量とストレスとの関係の学習により生成されたストレス推定モデルに基づき、前記被測定者のストレスの度合いを推定し、
前記ストレスの度合いを前記被測定者の状態に関する情報として出力する、
付記16または17に記載の生体情報処理方法。
[付記19]
前記セグメントの生成後、複数の前記セグメントのそれぞれに、当該セグメントにおける前記運動状態および当該セグメントの長さの少なくともいずれかに基づく、当該セグメントから導出される前記特徴量の精度に対する信頼性の高さを示す信頼度を付与し、
前記複数のセグメントの各々から導出される前記特徴量を、前記信頼度に応じた重みづけを行った上で統合することで全体の特徴量を導出し、
前記全体の特徴量、および前記全体の特徴量に基づく前記被測定者の状態に関する情報の、少なくともいずれかを出力する、
付記12に記載の生体情報処理方法。
[付記20]
所定の長さ未満の前記セグメントに対しては最も低い前記信頼度を付与する、付記19に記載の生体情報処理方法。
[付記21]
前記セグメントは、前記運動状態が割り当てられた区間の1つ以上の組を含み、
前記セグメントから導出された前記特徴量に基づく値を、当該セグメントを構成する前記区間のそれぞれに割り当て、
前記区間に割り当てられた前記特徴量と前記運動状態との組の変動を入力とするストレス推定モデルを用いて、前記被測定者のストレスの度合いを推定する、
付記12に記載の生体情報処理方法。
[付記22]
被測定者の生体情報の時系列データから、前記生体情報が取得された期間における前記被測定者の運動状態に基づいて前記時系列データの部分であるセグメントを生成する、セグメント生成処理と、
前記セグメントから特徴量を導出する特徴量導出処理と、
前記特徴量、および前記特徴量に基づく前記被測定者の状態に関する情報の、少なくともいずれかを出力する出力処理と、
をコンピュータに実行させるプログラムを記憶する、コンピュータ読み取り可能な非一時的な記憶媒体。
[付記23]
前記セグメント生成処理は、前記運動状態が同じである期間の一部または全部を前記セグメントの期間として設定する、
付記22に記載の、コンピュータ読み取り可能な非一時的な記憶媒体。
[付記24]
前記セグメント生成処理は、前記運動状態が遷移する時点から所定の時間後の時点を前記セグメントの始点として設定する、
付記22または23に記載の、コンピュータ読み取り可能な非一時的な記憶媒体。
[付記25]
前記特徴量導出処理は、所定の長さ未満の前記セグメントからは前記特徴量を導出しない、
付記22から24のいずれか一つに記載の、コンピュータ読み取り可能な非一時的な記憶媒体。
[付記26]
前記セグメント生成処理は、複数の前記セグメントに、当該セグメントにおける前記運動状態に基づくラベルを付与し、
前記プログラムは、前記ラベルが同一である複数の前記セグメントから導出される前記特徴量を統合することで、代表的な特徴量を導出する統合処理を前記コンピュータに実行させ、
前記出力処理は、前記代表的な特徴量、および前記代表的な特徴量に基づく前記被測定者の状態に関する情報の、少なくともいずれかを出力する、
付記22から25のいずれか一つに記載の、コンピュータ読み取り可能な非一時的な記憶媒体。
[付記27]
前記統合処理は、第1の長さの第1のセグメントから導出される第1の特徴量と、前記第1のセグメントよりも長い第2の長さの第2のセグメントから導出される第2の特徴量とを統合する場合に、前記代表的な特徴量に対する、前記第2の特徴量の寄与率と前記第1の特徴量の寄与率との比が、前記第2の長さと前記第1の長さとの比よりも大きくなるように、前記第1の特徴量および前記第2の特徴量に重みを付与し、前記重みに基づいて前記第1の特徴量と前記第2の特徴量を統合する、
付記26に記載の、コンピュータ読み取り可能な非一時的な記憶媒体。
[付記28]
前記プログラムは、前記代表的な特徴量とストレスとの関係の学習により生成されたストレス推定モデルに基づき、前記被測定者のストレスの度合いを推定するストレス推定処理を前記コンピュータにさらに実行させ、
前記出力処理は、前記ストレスの度合いを前記被測定者の状態に関する情報として出力する、
付記26または27に記載の、コンピュータ読み取り可能な非一時的な記憶媒体。
[付記29]
前記セグメント生成処理は、複数の前記セグメントのそれぞれに、当該セグメントにおける前記運動状態および当該セグメントの長さの少なくともいずれかに基づく、当該セグメントから導出される前記特徴量の精度に対する信頼性の高さを示す信頼度を付与し、
前記プログラムは、前記複数のセグメントの各々から導出される前記特徴量を、前記信頼度に応じた重みづけを行った上で統合することで全体の特徴量を導出する統合処理を前記コンピュータに実行させ、
前記出力処理は、前記全体の特徴量、および前記全体の特徴量に基づく前記被測定者の状態に関する情報の、少なくともいずれかを出力する、
付記22に記載の、コンピュータ読み取り可能な非一時的な記憶媒体。
[付記30]
前記セグメント生成処理は、所定の長さ未満の前記セグメントに対しては最も低い前記信頼度を付与する、付記29に記載の、コンピュータ読み取り可能な非一時的な記憶媒体。
[付記31]
前記セグメントは、前記運動状態が割り当てられた区間の1つ以上の組を含み、
前記プログラムは、
前記セグメントから導出された前記特徴量に基づく値を、当該セグメントを構成する前記区間のそれぞれに割り当てる特徴量割当処理と、
前記区間に割り当てられた前記特徴量と前記運動状態との組の変動を入力とするストレス推定モデルを用いて、前記被測定者のストレスの度合いを推定するストレス推定処理と、
を前記コンピュータに実行させる、付記22に記載の、コンピュータ読み取り可能な非一時的な記憶媒体。<< Additional notes >>
[Appendix 1]
A segment generation means that generates a segment that is a part of the time-series data based on the movement state of the person to be measured during the period in which the biometric information is acquired from the time-series data of the biometric information of the person to be measured.
A feature amount deriving means for deriving a feature amount from the segment,
An output means for outputting at least one of the feature amount and information on the state of the person to be measured based on the feature amount.
A biometric information processing device.
[Appendix 2]
The segment generation means sets a part or all of the period in which the exercise state is the same as the period of the segment.
The biometric information processing device according to
[Appendix 3]
The segment generation means sets a time point after a predetermined time from the time point at which the motion state transitions as the start point of the segment.
The biometric information processing device according to
[Appendix 4]
The feature quantity deriving means does not derive the feature quantity from the segment having a predetermined length.
The biometric information processing device according to any one of
[Appendix 5]
The segment generation means assigns a plurality of the segments with labels based on the motion state in the segment.
The biometric information processing apparatus includes an integration means for deriving a representative feature amount by integrating the feature amounts derived from a plurality of the segments having the same label.
The output means outputs at least one of the representative feature amount and information on the state of the person to be measured based on the representative feature amount.
The biometric information processing device according to any one of
[Appendix 6]
The integration means is derived from a first feature amount derived from the first segment of the first length and a second segment having a second length longer than the first segment. In the case of integrating the feature amounts of the above, the ratio of the contribution rate of the second feature amount to the contribution rate of the first feature amount with respect to the representative feature amount is the second length and the first feature amount. Weights are given to the first feature amount and the second feature amount so as to be larger than the ratio to the length of 1, and the first feature amount and the second feature amount are given based on the weights. Integrate,
The biometric information processing device according to
[Appendix 7]
A stress estimation means for estimating the degree of stress of the subject is further provided based on the stress estimation model generated by learning the relationship between the typical feature amount and stress.
The output means outputs the degree of stress as information regarding the state of the person to be measured.
The biometric information processing device according to
[Appendix 8]
The segment generation means has high reliability for the accuracy of the feature quantity derived from the segment based on at least one of the motion state in the segment and the length of the segment in each of the plurality of the segments. Gives confidence to indicate
The biometric information processing apparatus includes an integration means for deriving the entire feature amount by integrating the feature amounts derived from each of the plurality of segments after weighting according to the reliability. ,
The output means outputs at least one of the total feature amount and information on the state of the person to be measured based on the total feature amount.
The biometric information processing device according to
[Appendix 9]
The biometric information processing apparatus according to Appendix 8, wherein the segment generation means imparts the lowest reliability to the segment having a length shorter than a predetermined length.
[Appendix 10]
The segment comprises one or more sets of sections to which the exercise state is assigned.
The biometric information processing device
A feature amount allocating means for allocating a value based on the feature amount derived from the segment to each of the sections constituting the segment, and
A stress estimation means for estimating the degree of stress of the subject using a stress estimation model that inputs a variation of a set of the feature amount and the exercise state assigned to the section, and a stress estimation means.
The biometric information processing apparatus according to
[Appendix 11]
The biometric information processing device according to any one of
The biometric information acquisition means for acquiring the biometric information and
The motion information acquisition means for acquiring the motion information representing the motion of the person to be measured includes.
The biometric information processing device includes a motion state identification means for identifying the motion state based on information representing the motion.
Biometric information processing system.
[Appendix 12]
From the time-series data of the biometric information of the person to be measured, a segment that is a part of the time-series data is generated based on the exercise state of the person to be measured during the period in which the biometric information is acquired.
Derivation of features from the segment
Outputs at least one of the feature amount and information on the state of the person to be measured based on the feature amount.
Biometric information processing method.
[Appendix 13]
In the generation of the segment, a part or all of the period in which the exercise state is the same is set as the period of the segment.
The biometric information processing method according to
[Appendix 14]
In the generation of the segment, a time point after a predetermined time from the time point at which the motion state transitions is set as the start point of the segment.
The biometric information processing method according to
[Appendix 15]
In deriving the feature amount, the feature amount is not derived from the segment having a length less than a predetermined length.
The biometric information processing method according to any one of
[Appendix 16]
In the generation of the segment, a plurality of the segments are labeled based on the motion state in the segment.
By integrating the feature quantities derived from the plurality of segments having the same label, a representative feature quantity can be derived.
Outputs at least one of the representative feature amount and information on the state of the person to be measured based on the representative feature amount.
The biometric information processing method according to any one of
[Appendix 17]
The first feature quantity derived from the first segment of the first length and the second feature quantity derived from the second segment having a second length longer than the first segment are In the case of integration, the ratio of the contribution rate of the second feature amount to the contribution rate of the first feature amount with respect to the representative feature amount is the ratio of the second length and the first length. The first feature amount and the second feature amount are weighted so as to be larger than the ratio, and the first feature amount and the second feature amount are integrated based on the weights.
The biometric information processing method according to Appendix 16.
[Appendix 18]
Based on the stress estimation model generated by learning the relationship between the typical features and stress, the degree of stress of the subject is estimated.
The degree of stress is output as information regarding the state of the person to be measured.
The biometric information processing method according to Appendix 16 or 17.
[Appendix 19]
After the segment is generated, each of the plurality of segments has a high degree of reliability for the accuracy of the feature quantity derived from the segment based on at least one of the motion state in the segment and the length of the segment. Gives confidence to indicate
The features derived from each of the plurality of segments are weighted according to the reliability and then integrated to derive the overall features.
Outputs at least one of the total feature amount and information on the state of the person to be measured based on the total feature amount.
The biometric information processing method according to
[Appendix 20]
The biometric information processing method according to Appendix 19, which imparts the lowest reliability to the segment having a length less than a predetermined length.
[Appendix 21]
The segment comprises one or more sets of sections to which the exercise state is assigned.
A value based on the feature amount derived from the segment is assigned to each of the sections constituting the segment.
The degree of stress of the person to be measured is estimated by using a stress estimation model in which the variation of the set of the feature amount and the exercise state assigned to the section is input.
The biometric information processing method according to
[Appendix 22]
From the time-series data of the biometric information of the person to be measured, a segment generation process for generating a segment which is a part of the time-series data based on the movement state of the person to be measured during the period when the biometric information is acquired, and
The feature amount derivation process for deriving the feature amount from the segment and
An output process that outputs at least one of the feature amount and information on the state of the person to be measured based on the feature amount, and
A computer-readable, non-temporary storage medium that stores programs that cause a computer to run.
[Appendix 23]
In the segment generation process, a part or all of the period in which the exercise state is the same is set as the period of the segment.
A computer-readable non-temporary storage medium according to
[Appendix 24]
In the segment generation process, a time point after a predetermined time from the time point at which the motion state transitions is set as the start point of the segment.
A computer-readable, non-temporary storage medium according to
[Appendix 25]
The feature amount derivation process does not derive the feature amount from the segment having a length less than a predetermined length.
The computer-readable non-temporary storage medium according to any one of
[Appendix 26]
In the segment generation process, a plurality of the segments are labeled based on the motion state in the segment.
The program causes the computer to execute an integration process for deriving a representative feature amount by integrating the feature amounts derived from the plurality of segments having the same label.
The output process outputs at least one of the representative feature amount and information on the state of the person to be measured based on the representative feature amount.
A computer-readable non-temporary storage medium according to any one of
[Appendix 27]
The integration process is derived from a first feature quantity derived from the first segment of the first length and a second segment having a second length longer than the first segment. In the case of integrating the feature amounts of the above, the ratio of the contribution rate of the second feature amount to the contribution rate of the first feature amount with respect to the representative feature amount is the second length and the first feature amount. Weights are given to the first feature amount and the second feature amount so as to be larger than the ratio to the length of 1, and the first feature amount and the second feature amount are given based on the weights. Integrate,
A computer-readable, non-temporary storage medium according to Appendix 26.
[Appendix 28]
The program causes the computer to further perform a stress estimation process for estimating the degree of stress of the subject based on a stress estimation model generated by learning the relationship between the representative feature amount and stress.
The output process outputs the degree of stress as information regarding the state of the person to be measured.
A computer-readable, non-temporary storage medium according to Appendix 26 or 27.
[Appendix 29]
The segment generation process is highly reliable for the accuracy of the feature quantity derived from the segment, based on at least one of the motion state in the segment and the length of the segment in each of the plurality of segments. Gives confidence to indicate
The program executes an integration process on the computer to derive the entire feature amount by integrating the feature amounts derived from each of the plurality of segments after weighting according to the reliability. Let me
The output process outputs at least one of the total feature amount and information on the state of the person to be measured based on the total feature amount.
A computer-readable non-temporary storage medium according to
[Appendix 30]
The computer-readable non-temporary storage medium according to Appendix 29, wherein the segment generation process imparts the lowest reliability to the segment of less than a predetermined length.
[Appendix 31]
The segment comprises one or more sets of sections to which the exercise state is assigned.
The program
A feature amount allocation process that allocates a value based on the feature amount derived from the segment to each of the sections constituting the segment, and
A stress estimation process for estimating the degree of stress of the subject using a stress estimation model that inputs a variation of a set of the feature amount and the exercise state assigned to the section, and a stress estimation process.
A computer-readable, non-temporary storage medium according to
以上、実施形態を参照して本願発明を説明したが、本願発明は上記実施形態に限定されるものではない。本願発明の構成や詳細には、本願発明のスコープ内で当業者が理解し得る様々な変更をすることができる。 Although the invention of the present application has been described above with reference to the embodiment, the invention of the present application is not limited to the above embodiment. Various changes that can be understood by those skilled in the art can be made within the scope of the present invention in terms of the structure and details of the present invention.
1、2 生体情報処理システム
5 生体情報取得部
6 動き情報取得部
11、12、13 生体情報処理装置
101 セグメント生成部
102 特徴量導出部
103 出力部
110 制御部
111 運動状態識別部
112 セグメント生成部
113 特徴量導出部
114 統合部
115 ストレス推定部
116 情報出力部
119 記憶部
124 特徴量割当部
125 ストレス推定部
900 コンピュータ
901 CPU
902 ROM
903 RAM
904A プログラム
904B 記憶情報
905 記憶装置
906 記憶媒体
907 ドライブ装置
908 通信インタフェース
909 通信ネットワーク
910 入出力インタフェース
911 バス1, 2
902 ROM
903 RAM
Claims (10)
前記セグメントから特徴量を導出する特徴量導出手段と、
前記特徴量、および前記特徴量に基づく前記被測定者の状態に関する情報の、少なくともいずれかを出力する出力手段と、
を備え、
前記セグメント生成手段は、複数の前記セグメントに、当該セグメントにおける前記運動状態に基づくラベルを付与し、
前記ラベルが同一である複数の前記セグメントから導出される前記特徴量を統合することで、代表的な特徴量を導出する統合手段を備え、
前記出力手段は、前記代表的な特徴量、および前記代表的な特徴量に基づく前記被測定者の状態に関する情報の、少なくともいずれかを出力し、
前記統合手段は、第1の長さの第1のセグメントから導出される第1の特徴量と、前記第1のセグメントよりも長い第2の長さの第2のセグメントから導出される第2の特徴量とを統合する場合に、前記代表的な特徴量に対する、前記第2の特徴量の寄与率と前記第1の特徴量の寄与率との比が、前記第2の長さと前記第1の長さとの比よりも大きくなるように、前記第1の特徴量および前記第2の特徴量に重みを付与し、前記重みに基づいて前記第1の特徴量と前記第2の特徴量を統合する、
生体情報処理装置。 A segment generation means that generates a segment that is a part of the time-series data based on the movement state of the person to be measured during the period in which the biometric information is acquired from the time-series data of the biometric information of the person to be measured.
A feature amount deriving means for deriving a feature amount from the segment,
An output means for outputting at least one of the feature amount and information on the state of the person to be measured based on the feature amount.
Equipped with a,
The segment generation means assigns a plurality of the segments with labels based on the motion state in the segment.
An integration means for deriving a representative feature amount by integrating the feature amounts derived from a plurality of the features having the same label is provided.
The output means outputs at least one of the representative feature amount and the information regarding the state of the person to be measured based on the representative feature amount.
The integration means is derived from a first feature amount derived from the first segment of the first length and a second segment having a second length longer than the first segment. In the case of integrating the feature amounts of the above, the ratio of the contribution rate of the second feature amount to the contribution rate of the first feature amount with respect to the representative feature amount is the second length and the first feature amount. Weights are given to the first feature amount and the second feature amount so as to be larger than the ratio to the length of 1, and the first feature amount and the second feature amount are given based on the weights. Integrate,
Biometric information processing device.
請求項1に記載の生体情報処理装置。 The segment generation means sets a part or all of the period in which the exercise state is the same as the period of the segment.
The biometric information processing device according to claim 1.
請求項1または2に記載の生体情報処理装置。 The segment generation means sets a time point after a predetermined time from the time point at which the motion state transitions as the start point of the segment.
The biometric information processing device according to claim 1 or 2.
請求項1から3のいずれか一項に記載の生体情報処理装置。 The feature quantity deriving means does not derive the feature quantity from the segment having a predetermined length.
The biometric information processing device according to any one of claims 1 to 3.
前記セグメントから特徴量を導出する特徴量導出手段と、
前記特徴量、および前記特徴量に基づく前記被測定者の状態に関する情報の、少なくともいずれかを出力する出力手段と、
を備え、
前記セグメント生成手段は、複数の前記セグメントのそれぞれに、当該セグメントにおける前記運動状態および当該セグメントの長さの少なくともいずれかに基づく、当該セグメントから導出される前記特徴量の精度に対する信頼性の高さを示す信頼度を付与し、
前記複数のセグメントの各々から導出される前記特徴量を、前記信頼度に応じた重みづけを行った上で統合することで全体の特徴量を導出する統合手段を備え、
前記出力手段は、前記全体の特徴量、および前記全体の特徴量に基づく前記被測定者の状態に関する情報の、少なくともいずれかを出力する、
生体情報処理装置。 A segment generation means that generates a segment that is a part of the time-series data based on the movement state of the person to be measured during the period in which the biometric information is acquired from the time-series data of the biometric information of the person to be measured.
A feature amount deriving means for deriving a feature amount from the segment,
An output means for outputting at least one of the feature amount and information on the state of the person to be measured based on the feature amount.
Equipped with a,
The segment generation means has high reliability for the accuracy of the feature quantity derived from the segment based on at least one of the motion state in the segment and the length of the segment in each of the plurality of the segments. Gives confidence to indicate
An integration means for deriving the entire feature amount by integrating the feature amounts derived from each of the plurality of segments after weighting according to the reliability is provided.
The output means outputs at least one of the total feature amount and information on the state of the person to be measured based on the total feature amount.
Biometric information processing device.
前記セグメントから特徴量を導出し、 Derivation of features from the segment
前記特徴量、および前記特徴量に基づく前記被測定者の状態に関する情報の、少なくともいずれかを出力し、 Output at least one of the feature amount and information on the state of the person to be measured based on the feature amount.
複数の前記セグメントに、当該セグメントにおける前記運動状態に基づくラベルを付与し、 A plurality of the segments are labeled based on the motion state in the segment.
前記ラベルが同一である複数の前記セグメントから導出される前記特徴量を統合することで、代表的な特徴量を導出し、 By integrating the feature quantities derived from the plurality of segments having the same label, a representative feature quantity can be derived.
前記代表的な特徴量、および前記代表的な特徴量に基づく前記被測定者の状態に関する情報の、少なくともいずれかを出力し、 At least one of the representative feature amount and the information on the state of the person to be measured based on the representative feature amount is output.
第1の長さの第1のセグメントから導出される第1の特徴量と、前記第1のセグメントよりも長い第2の長さの第2のセグメントから導出される第2の特徴量とを統合する場合に、前記代表的な特徴量に対する、前記第2の特徴量の寄与率と前記第1の特徴量の寄与率との比が、前記第2の長さと前記第1の長さとの比よりも大きくなるように、前記第1の特徴量および前記第2の特徴量に重みを付与し、前記重みに基づいて前記第1の特徴量と前記第2の特徴量を統合する、 The first feature quantity derived from the first segment of the first length and the second feature quantity derived from the second segment having a second length longer than the first segment are In the case of integration, the ratio of the contribution rate of the second feature amount to the contribution rate of the first feature amount with respect to the representative feature amount is the ratio of the second length and the first length. The first feature amount and the second feature amount are weighted so as to be larger than the ratio, and the first feature amount and the second feature amount are integrated based on the weights.
生体情報処理方法。 Biometric information processing method.
前記セグメントから特徴量を導出し、 Derivation of features from the segment
前記特徴量、および前記特徴量に基づく前記被測定者の状態に関する情報の、少なくともいずれかを出力し、 Output at least one of the feature amount and information on the state of the person to be measured based on the feature amount.
複数の前記セグメントのそれぞれに、当該セグメントにおける前記運動状態および当該セグメントの長さの少なくともいずれかに基づく、当該セグメントから導出される前記特徴量の精度に対する信頼性の高さを示す信頼度を付与し、 Each of the plurality of said segments is given a reliability indicating a high degree of reliability with respect to the accuracy of the feature quantity derived from the segment based on at least one of the motion state in the segment and the length of the segment. death,
前記複数のセグメントの各々から導出される前記特徴量を、前記信頼度に応じた重みづけを行った上で統合することで全体の特徴量を導出し、 The features derived from each of the plurality of segments are weighted according to the reliability and then integrated to derive the overall features.
前記全体の特徴量、および前記全体の特徴量に基づく前記被測定者の状態に関する情報の、少なくともいずれかを出力する、 Outputs at least one of the total feature amount and information on the state of the person to be measured based on the total feature amount.
生体情報処理方法。 Biometric information processing method.
前記セグメントから特徴量を導出する特徴量導出処理と、 The feature amount derivation process for deriving the feature amount from the segment and
前記特徴量、および前記特徴量に基づく前記被測定者の状態に関する情報の、少なくともいずれかを出力する出力処理と、 An output process that outputs at least one of the feature amount and information on the state of the person to be measured based on the feature amount, and
をコンピュータに実行させ、 Let the computer run
前記セグメント生成処理では、複数の前記セグメントに、当該セグメントにおける前記運動状態に基づくラベルを付与し、 In the segment generation process, a plurality of the segments are given labels based on the motion state in the segment.
前記ラベルが同一である複数の前記セグメントから導出される前記特徴量を統合することで、代表的な特徴量を導出する統合処理をコンピュータに実行させ、 By integrating the feature quantities derived from the plurality of segments having the same label, a computer is made to execute an integration process for deriving a representative feature quantity.
前記出力処理では、前記代表的な特徴量、および前記代表的な特徴量に基づく前記被測定者の状態に関する情報の、少なくともいずれかを出力し、 In the output process, at least one of the representative feature amount and the information regarding the state of the person to be measured based on the representative feature amount is output.
前記統合処理では、第1の長さの第1のセグメントから導出される第1の特徴量と、前記第1のセグメントよりも長い第2の長さの第2のセグメントから導出される第2の特徴量とを統合する場合に、前記代表的な特徴量に対する、前記第2の特徴量の寄与率と前記第1の特徴量の寄与率との比が、前記第2の長さと前記第1の長さとの比よりも大きくなるように、前記第1の特徴量および前記第2の特徴量に重みを付与し、前記重みに基づいて前記第1の特徴量と前記第2の特徴量を統合する、 In the integration process, the first feature quantity derived from the first segment of the first length and the second feature derived from the second segment having a second length longer than the first segment are derived. When integrating the feature amounts of the above, the ratio of the contribution rate of the second feature amount to the contribution rate of the first feature amount with respect to the representative feature amount is the second length and the first feature amount. Weights are given to the first feature amount and the second feature amount so as to be larger than the ratio to the length of 1, and the first feature amount and the second feature amount are given based on the weights. Integrate,
ことをコンピュータに実行させるプログラム。 A program that lets a computer do things.
前記セグメントから特徴量を導出する特徴量導出処理と、
前記特徴量、および前記特徴量に基づく前記被測定者の状態に関する情報の、少なくともいずれかを出力する出力処理と、
をコンピュータに実行させ、
前記セグメント生成処理では、複数の前記セグメントのそれぞれに、当該セグメントにおける前記運動状態および当該セグメントの長さの少なくともいずれかに基づく、当該セグメントから導出される前記特徴量の精度に対する信頼性の高さを示す信頼度を付与し、
前記複数のセグメントの各々から導出される前記特徴量を、前記信頼度に応じた重みづけを行った上で統合することで全体の特徴量を導出する統合処理をコンピュータに実行させ、
前記出力処理では、前記全体の特徴量、および前記全体の特徴量に基づく前記被測定者の状態に関する情報の、少なくともいずれかを出力する、
ことをコンピュータに実行させるプログラム。 From the time-series data of the biometric information of the person to be measured, a segment generation process for generating a segment which is a part of the time-series data based on the movement state of the person to be measured during the period when the biometric information is acquired, and
The feature amount derivation process for deriving the feature amount from the segment and
An output process that outputs at least one of the feature amount and information on the state of the person to be measured based on the feature amount, and
Let the computer run
In the segment generation process, each of the plurality of segments has high reliability for the accuracy of the feature quantity derived from the segment based on at least one of the motion state in the segment and the length of the segment. Gives confidence to indicate
The computer is made to execute an integration process for deriving the entire feature amount by integrating the feature amounts derived from each of the plurality of segments after weighting according to the reliability.
In the output process, at least one of the total feature amount and the information regarding the state of the person to be measured based on the total feature amount is output.
A program that lets a computer do things .
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
PCT/JP2017/036229 WO2019069417A1 (en) | 2017-10-05 | 2017-10-05 | Biological information processing device, biological information processing system, biological information processing method, and storage medium |
Publications (2)
Publication Number | Publication Date |
---|---|
JPWO2019069417A1 JPWO2019069417A1 (en) | 2020-10-15 |
JP6943287B2 true JP6943287B2 (en) | 2021-09-29 |
Family
ID=65994204
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019546476A Active JP6943287B2 (en) | 2017-10-05 | 2017-10-05 | Biometric information processing equipment, biometric information processing systems, biometric information processing methods, and programs |
Country Status (2)
Country | Link |
---|---|
JP (1) | JP6943287B2 (en) |
WO (1) | WO2019069417A1 (en) |
Families Citing this family (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP7136341B2 (en) * | 2019-04-08 | 2022-09-13 | 日本電気株式会社 | Stress estimation device, stress estimation method and program |
JP7276586B2 (en) * | 2020-02-14 | 2023-05-18 | 日本電気株式会社 | STRESS ESTIMATION DEVICE, STRESS ESTIMATION METHOD, AND PROGRAM |
JP7525052B2 (en) | 2021-03-24 | 2024-07-30 | 日本電気株式会社 | FEATURE GENERATION DEVICE, GATHERING MEASUREMENT SYSTEM, FEATURE GENERATION METHOD, AND PROGRAM |
JP7605293B2 (en) * | 2021-04-02 | 2024-12-24 | 日本電気株式会社 | Learning device, stress estimation device, learning method, stress estimation method, and program |
WO2023119433A1 (en) * | 2021-12-21 | 2023-06-29 | 日本電気株式会社 | Calculation method, calculation device, and storage medium |
US20250068698A1 (en) * | 2021-12-23 | 2025-02-27 | Nec Corporation | Learning device, stress estimation device, learning method, stress estimation method, and storage medium |
Family Cites Families (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP2330554A4 (en) * | 2008-09-19 | 2013-05-22 | Hitachi Ltd | METHOD AND SYSTEM FOR GENERATING BEHAVIOR HISTORY |
WO2014039567A1 (en) * | 2012-09-04 | 2014-03-13 | Bobo Analytics, Inc. | Systems, devices and methods for continuous heart rate monitoring and interpretation |
JP2016202347A (en) * | 2015-04-17 | 2016-12-08 | セイコーエプソン株式会社 | Biological information processing system, biological information processing device, and analysis result information generation method |
JP2017127377A (en) * | 2016-01-18 | 2017-07-27 | セイコーエプソン株式会社 | Portable electronic equipment, display method of portable electronic equipment, and display program of portable electronic equipment |
-
2017
- 2017-10-05 JP JP2019546476A patent/JP6943287B2/en active Active
- 2017-10-05 WO PCT/JP2017/036229 patent/WO2019069417A1/en active Application Filing
Also Published As
Publication number | Publication date |
---|---|
JPWO2019069417A1 (en) | 2020-10-15 |
WO2019069417A1 (en) | 2019-04-11 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6943287B2 (en) | Biometric information processing equipment, biometric information processing systems, biometric information processing methods, and programs | |
Dey et al. | InstaBP: cuff-less blood pressure monitoring on smartphone using single PPG sensor | |
US10470719B2 (en) | Machine learnt model to detect REM sleep periods using a spectral analysis of heart rate and motion | |
US20200337580A1 (en) | Time series data learning and analysis method using artificial intelligence | |
US9179862B2 (en) | Method and system for assessing locomotive bio-rhythms | |
JP5920364B2 (en) | Information processing apparatus, representative waveform generation method, and representative waveform generation program | |
CN107979986B (en) | Method and apparatus for generating information indicative of cardiac malfunction | |
JP6951516B2 (en) | Methods and systems for detecting human pace | |
EP3410924A1 (en) | Machine learnt model to detect rem sleep periods using a spectral analysis of heart rate and motion | |
KR20150113700A (en) | System and method for diagnosis | |
WO1997043722A1 (en) | Method and apparatus for detecting nonlinearity in a dynamical system | |
RU2719945C2 (en) | Apparatus, method and system for counting the number of cycles of periodic movement of a subject | |
KR102202029B1 (en) | Method for estimating continuous blood pressure using recurrent neural network and apparatus thereof | |
US20200170577A1 (en) | System and Methods for Adaptive Noise Quantification in Dynamic Biosignal Analysis | |
Côté-Allard et al. | Long–short ensemble network for bipolar manic-euthymic state recognition based on wrist-worn sensors | |
JP7136341B2 (en) | Stress estimation device, stress estimation method and program | |
US10595789B2 (en) | Meal time estimation method, meal time estimation device, and recording medium | |
Mesin | Heartbeat monitoring from adaptively down-sampled electrocardiogram | |
Elden et al. | A computer aided diagnosis system for the early detection of neurodegenerative diseases using linear and non-linear analysis | |
US20200012993A1 (en) | Task estimation method and information processing apparatus | |
JP6767318B2 (en) | Heart rate interval modeling device and abnormal condition determination method | |
CN111407261B (en) | Method and device for measuring period information of biological signals and electronic equipment | |
EP3626170A1 (en) | Information processing device, information processing system, and information processing method | |
Babu et al. | Classification of human gait: Swing and stance phases using sum-vector analysis | |
KR102112699B1 (en) | Method for visualizing time series signal and apparatus using the same |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20200311 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20200311 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20201208 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20210202 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20210810 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20210823 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6943287 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |