JP7449838B2 - Behavior analysis system and behavior analysis method using it - Google Patents
Behavior analysis system and behavior analysis method using it Download PDFInfo
- Publication number
- JP7449838B2 JP7449838B2 JP2020173081A JP2020173081A JP7449838B2 JP 7449838 B2 JP7449838 B2 JP 7449838B2 JP 2020173081 A JP2020173081 A JP 2020173081A JP 2020173081 A JP2020173081 A JP 2020173081A JP 7449838 B2 JP7449838 B2 JP 7449838B2
- Authority
- JP
- Japan
- Prior art keywords
- measurement data
- behavior analysis
- sensor
- analysis system
- data
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000004458 analytical method Methods 0.000 title claims description 81
- 230000006399 behavior Effects 0.000 claims description 104
- 238000005259 measurement Methods 0.000 claims description 100
- 238000006243 chemical reaction Methods 0.000 claims description 77
- 238000000605 extraction Methods 0.000 claims description 29
- 230000009466 transformation Effects 0.000 claims description 15
- 230000009471 action Effects 0.000 claims description 5
- 239000000284 extract Substances 0.000 claims description 3
- 230000000284 resting effect Effects 0.000 claims 1
- 238000011161 development Methods 0.000 description 81
- 230000001133 acceleration Effects 0.000 description 26
- 238000000034 method Methods 0.000 description 24
- 230000008569 process Effects 0.000 description 19
- 238000012545 processing Methods 0.000 description 18
- 238000010586 diagram Methods 0.000 description 12
- 230000008859 change Effects 0.000 description 10
- 238000004891 communication Methods 0.000 description 4
- 230000006870 function Effects 0.000 description 4
- 230000033001 locomotion Effects 0.000 description 4
- 238000013528 artificial neural network Methods 0.000 description 3
- 230000003542 behavioural effect Effects 0.000 description 3
- 238000007781 pre-processing Methods 0.000 description 3
- 238000005070 sampling Methods 0.000 description 3
- 210000000707 wrist Anatomy 0.000 description 3
- 238000001514 detection method Methods 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 239000011159 matrix material Substances 0.000 description 2
- 241001465754 Metazoa Species 0.000 description 1
- 210000003423 ankle Anatomy 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 239000000470 constituent Substances 0.000 description 1
- 230000007423 decrease Effects 0.000 description 1
- 210000004247 hand Anatomy 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 230000033764 rhythmic process Effects 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 238000012549 training Methods 0.000 description 1
- 230000007704 transition Effects 0.000 description 1
Images
Landscapes
- Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
Description
本発明は、ウェアラブル端末を装着したユーザの行動を解析する行動解析システム及びそれを用いた行動解析方法に関し、特に解析前に軸方向を合わせる技術に係る。 The present invention relates to a behavior analysis system for analyzing the behavior of a user wearing a wearable terminal and a behavior analysis method using the same, and particularly relates to a technique for aligning the axis direction before analysis.
ウェアラブル端末を装着したユーザの行動を計測し、計測されたデータに基づいて行動を解析するには、ウェアラブル端末に備えられる加速度センサ等のセンサの軸方向を予め合わせる必要がある。 In order to measure the behavior of a user wearing a wearable terminal and analyze the behavior based on the measured data, it is necessary to align the axial directions of sensors such as acceleration sensors included in the wearable terminal in advance.
特許文献1には、ユーザの手や腕、及びユーザが使用する器具、例えばゴルフクラブ等にセンサを取付けた状態で、素振り等の回転運動をしたときに各センサで計測される計測データに基づいて、各センサの軸方向を合わせることが開示される。 Patent Document 1 describes a method based on measurement data measured by each sensor when a user performs a rotational movement such as a practice swing with the sensors attached to the user's hands and arms and the equipment used by the user, such as a golf club. Accordingly, it is disclosed that the axial directions of each sensor are aligned.
しかしながら特許文献1では、異なるタイミングで計測された計測データを用いて、各センサの軸方向を合わせることに対する配慮はなされていない。すなわち特許文献1は同時に計測された計測データに基づくことが前提であるため、例えばウェアラブル端末の開発時の計測データと使用時の計測データとに基づいて、開発時のセンサの軸方向と使用時のセンサの軸方向とを合わせることは困難である。 However, in Patent Document 1, no consideration is given to aligning the axial directions of the sensors using measurement data measured at different timings. In other words, since Patent Document 1 is based on measurement data measured at the same time, for example, the axial direction of the sensor at the time of development and the time of use are determined based on the measurement data at the time of development and the measurement data at the time of use of the wearable terminal. It is difficult to match the axial direction of the sensor.
そこで本発明は、異なるタイミングで計測された計測データであっても、複数のセンサの軸方向を合わせることが可能な行動解析システム及びそれを用いた行動解析方法を提供することを目的とする。 SUMMARY OF THE INVENTION Therefore, an object of the present invention is to provide a behavior analysis system and a behavior analysis method using the system that can align the axial directions of a plurality of sensors even if the measurement data is measured at different timings.
上記目的を達成するために本発明は、ユーザの行動を解析する行動解析システムであって、第一センサによって複数の軸方向について計測された第一計測データに対して基準区間を設定する設定部と、前記第一計測データと異なるタイミングで第二センサによって複数の軸方向について計測された第二計測データの中から前記基準区間に対応する対応区間を抽出する抽出部と、前記基準区間の第一計測データと前記対応区間の第二計測データとに基づいて、軸方向を変換するモデルである軸方向変換モデルを生成する生成部と、前記軸方向変換モデルを用いて、前記第二センサの軸方向を前記第一センサの軸方向に変換する変換部を備えることを特徴とする。 In order to achieve the above object, the present invention provides a behavior analysis system that analyzes user behavior, and includes a setting unit that sets a reference interval for first measurement data measured in a plurality of axial directions by a first sensor. an extraction unit that extracts a corresponding section corresponding to the reference section from second measurement data measured in a plurality of axial directions by a second sensor at a timing different from the first measurement data; a generation unit that generates an axial direction conversion model that is a model for converting the axial direction based on the first measurement data and the second measurement data of the corresponding section; The sensor is characterized by comprising a converter that converts the axial direction to the axial direction of the first sensor.
また本発明は、ユーザの行動を解析する行動解析システムを用いた行動解析方法であって、第一センサによって複数の軸方向について計測された第一計測データに対して基準区間を設定する設定ステップと、前記第一計測データと異なるタイミングで第二センサによって複数の軸方向について計測された第二計測データの中から前記基準区間に対応する対応区間を抽出する抽出ステップと、前記基準区間の第一計測データと前記対応区間の第二計測データとに基づいて、軸方向を変換するモデルである軸方向変換モデルを生成する生成ステップと、前記軸方向変換モデルを用いて、前記第二センサの軸方向を前記第一センサの軸方向に変換する変換ステップを備えることを特徴とする。 The present invention also provides a behavior analysis method using a behavior analysis system for analyzing user behavior, in which a setting step of setting a reference interval for first measurement data measured in a plurality of axial directions by a first sensor. an extraction step of extracting a corresponding section corresponding to the reference section from second measurement data measured in a plurality of axial directions by a second sensor at a timing different from the first measurement data; a generation step of generating an axial direction conversion model, which is a model for converting the axial direction, based on the first measurement data and the second measurement data of the corresponding section; The method is characterized by comprising a conversion step of converting the axial direction to the axial direction of the first sensor.
本発明によれば、異なるタイミングで計測された計測データであっても、複数のセンサの軸方向を合わせることが可能な行動解析システム及びそれを用いた行動解析方法を提供することができる。 According to the present invention, it is possible to provide a behavior analysis system and a behavior analysis method using the same that can align the axial directions of a plurality of sensors even if measurement data is measured at different timings.
以下、添付図面に従って本発明に係る行動解析システムの好ましい実施例について説明する。なお、以下の説明及び添付図面において、同一の機能構成を有する構成要素については、同一の符号を付することにより重複説明を省略する。 Preferred embodiments of the behavior analysis system according to the present invention will be described below with reference to the accompanying drawings. In the following description and accompanying drawings, components having the same functional configuration are designated by the same reference numerals, thereby omitting redundant explanation.
図1を用いて実施例1の行動解析システムの全体構成について説明する。行動解析システムは、ユーザの身体の一部に装着されるユーザ使用センサ端末1または開発用センサ端末6と、PC2またはスマートフォン3と、サーバ5によって構成される。ユーザ使用センサ端末1または開発用センサ端末6と、PC2またはスマートフォン3とは無線によりデータを送受できるように接続される。PC2またはスマートフォン3とサーバ5とはネットワーク4を介してデータを送受できるように接続される。
The overall configuration of the behavior analysis system of Example 1 will be explained using FIG. 1. The behavior analysis system includes a sensor terminal 1 used by the user or a
ユーザ使用センサ端末1および開発用センサ端末6は、ユーザに装着されて行動を計測するウェアラブル端末であり、例えば直交する三軸のそれぞれについて加速度を計測する加速度センサを含む。なおユーザ使用センサ端末1は個人ユーザが使用するウェアラブル端末であり、開発用センサ端末6は開発者が使用するウェアラブル端末である。またユーザ使用センサ端末1または開発用センサ端末6が装着される対象は人に限られず、動物やロボット等を含む動体全般である。
The sensor terminal 1 used by the user and the
PC2およびスマートフォン3は、ユーザ専用のコンピュータであり、ユーザ使用センサ端末1または開発用センサ端末6から送信される計測データをメタデータとともにサーバ5へ送信したり、サーバ5から送信されるデータを受信して表示したりする。メタデータは、ユーザ使用センサ端末1または開発用センサ端末6によって計測された計測データの意味が記述されるデータであり、例えばユーザを示すユーザIDや計測に用いられたウェアラブル端末を示す端末名等を含む。
The PC 2 and the
サーバ5は、いわゆるコンピュータであり、メモリ11、通信部12、CPU(Central Processing Unit)13、データベース14を有する。メモリ11は、データやプログラムを一時的に記憶するデバイスであり、例えばセンサデータ入出力プログラム21や軸方向変更プログラム22を一時的に記憶する。通信部12は、LAN、電話回線、インターネット等のネットワーク4を介して、データを送受信するデバイスであり、CPU13に接続される。CPU13は、各種プログラムや演算を実行するとともに各部の動作を制御するデバイスであり、例えばメモリ11にロードされたセンサデータ入出力プログラム21や軸方向変更プログラム22を実行する。
The server 5 is a so-called computer, and includes a
データベース14は、各種データが格納されるデバイスであり、例えばセンサデータ入出力プログラム21や軸方向変更プログラム22によって処理されるデータが格納される。具体的には、ユーザ使用センサデータ41、開発用センサデータ42、軸方向変換モデル43、付与後センサデータ44、センサテーブル46、ユーザテーブル47、装着部位テーブル48等がデータベース14に格納される。また装着方向テーブル45がデータベース14に格納されても良い。各種データの構造は後述される。
The
センサデータ入出力プログラム21は、通信部12およびネットワーク4を介してPC2やスマートフォン3に対してデータを送受信するプログラムであり、データベース14に格納されるデータをユーザに提示したり、ユーザが入力するデータを受け付けたりする。
The sensor data input/
軸方向変更プログラム22は、ユーザ使用センサ端末1や開発用センサ端末6によって計測された計測データの軸方向を変更するプログラムであり、メタデータ付与プログラム31、軸方向変換モデル作成プログラム32、軸方向変換プログラム33を含む。
The axial
メタデータ付与プログラム31は、ユーザ使用センサ端末1や開発用センサ端末6の計測データに、計測データとともに送信されたメタデータを付与するプログラムである。ユーザ使用センサ端末1の計測データにメタデータが付与されることによってユーザ使用センサデータ41が生成される。また開発用センサ端末6の計測データにメタデータが付与されることによって開発用センサデータ42が生成される。なおユーザ使用センサ端末1は様々な場面で使用されるので、各場面に対応する開発用センサデータ42が生成される。
The metadata addition program 31 is a program that adds metadata transmitted together with the measurement data to the measurement data of the sensor terminal 1 used by the user or the
図2Aと図2Bを用いて、開発用センサデータ42とユーザ使用センサデータ41のデータ構造の一例について説明する。開発用センサデータ42は計測データとメタ―データから構成される。計測データには、例えば時刻901、X軸加速度902、Y軸加速度903、Z軸加速度904が含まれる。メタデータには、少なくともユーザID905、センサ端末名906、装着部位907が含まれる。装着部位907には、開発用センサ端末6が装着された身体の部位、例えば左手首や右足首等が格納される。メタデータは、各時刻の計測データ毎に付与されても良いし、図2Aに例示されるように複数の時刻の計測データに対して付与されても良い。
An example of the data structure of the
またメタデータには、さらに装着方向908や基準行動909が含まれても良い。装着方向908には、開発用センサ端末6が装着されたときの順方向を基準とした方向が格納される。例えば、予め定められた順方向と同じで方向に開発用センサ端末6が装着される場合は「順方向」が、順方向とは反対の方向に装着される場合は「逆方向」が格納される。なお開発用センサ端末6が装着される方向が既定通りであることを前提として未格納としても良い。また順方向に対する装着方向の差異に係るデータがオイラー角やクォータニオン、回転行列の形式で格納されても良い。基準行動909には、計測データが計測されるときの基準となる行動が格納される。例えば、計測データが歩行時に計測される場合は「歩行」が、ラジオ体操時に計測される場合は「ラジオ体操」が格納される。
Further, the metadata may further include a wearing
ユーザ使用センサデータ41は、開発用センサデータ42と同様に、計測データとメタ―データから構成される。計測データには、例えば時刻911、X軸加速度912、Y軸加速度913、Z軸加速度914が含まれる。メタデータには、少なくともユーザID915、センサ端末名916、装着部位917が含まれる。またメタデータには、さらに装着方向918や抽出条件919が含まれても良い。抽出条件919は、後述される対応区間をユーザ使用センサデータ41から抽出するときに使用される条件である。
The user-used
図1の説明に戻る。軸方向変換モデル作成プログラム32は、ユーザ使用センサデータ41と開発用センサデータ42とに基づいて、軸方向を変換するモデルである軸方向変換モデル43を生成するプログラムである。軸方向変換プログラム33は、軸方向変換モデル43を用いて、ユーザ使用センサデータ41から付与後センサデータ44を生成するプログラムである。
Returning to the explanation of FIG. The axial direction conversion
図3Aと図3Bを用いて、軸方向変換モデル43と付与後センサデータ44のデータ構造の一例について説明する。軸方向変換モデル43には、例えば軸方向変換モデルID951、基準センサ端末名952、対象センサ端末名953、装着部位954、変換式955が含まれる。軸方向変換モデルID951には、軸方向変換モデル作成プログラム32によって作成される軸方向変換モデル43のIDが格納される。基準センサ端末名952には、開発用センサデータ42の計測に用いられ、軸方向の基準となる開発用センサ端末6の端末名が格納される。対象センサ端末名953には、ユーザ使用センサデータ41の計測に用いられ、軸方向が変更されるユーザ使用センサ端末1の端末名が格納される。装着部位954には、開発用センサ端末6が装着された部位が格納される。変換式955には、軸方向の変更に用いられる数式が格納される。
An example of the data structure of the axial
また軸方向変換モデル43には、さらに装着方向956や抽出条件957、基準一軸958、他二軸959が含まれても良い。装着方向956には、例えば開発用センサ端末6が装着された方向が格納される。抽出条件957には、後述される対応区間をユーザ使用センサデータ41から抽出するときに使用される条件が格納される。基準一軸958には、開発用センサ端末6とユーザ使用センサ端末1との各三軸のうちのいずれの軸が基準軸として対応付けられたかが格納される。他二軸959には、基準軸以外の他の二軸同士を対応付けるための回転角が格納される。
Further, the axial
付与後センサデータ44は、計測データとメタデータ、軸変換データから構成される。計測データには、時刻931、X軸加速度932、Y軸加速度933、Z軸加速度934が含まれる。メタデータには、少なくともユーザID935、センサ端末名936、装着部位937が含まれ、さらに装着方向938が含まれても良い。軸変換データには、軸変換939と軸方向変換モデルID940が含まれる。軸変換939には、軸変換がなされたか否かを示すデータが格納される。図3Bには、軸変換が未だなされてないことを示す「未済」が例示される。なお軸変換がなされていない場合は、ユーザ使用センサデータ41の計測データが付与後センサデータ44の計測データに格納され、軸変換がなされている場合は、軸変換がなされた計測データが付与後センサデータ44の計測データに格納される。軸方向変換モデルID940には、軸方向変換プログラム33に用いられる軸方向変換モデル43のIDが格納される。
The applied
実施例1の行動解析システムは、ユーザの行動を解析するに先立ち、行動解析システムの開発時に使用されるウェアラブル端末である開発用センサ端末6の軸方向と、個人ユーザに使用されるウェアラブル端末であるユーザ使用センサ端末1の軸方向とを合わせる。開発用センサ端末6の計測データを含む開発用センサデータ42は、ユーザ使用センサ端末1が使用される様々な場面に対応できるように生成される。
Prior to analyzing the user's behavior, the behavior analysis system of the first embodiment determines the axial direction of the
図4を用いて、開発用センサデータ42が生成される処理の流れの一例について、処理ステップ毎に説明する。
An example of the flow of processing for generating the
(S401)
開発用センサ端末6によって計測データが収集され、収集された計測データはメタデータとともにサーバ5へ送信される。
(S401)
Measurement data is collected by the
(S402)
メタデータ付与プログラム31が実行されることにより、S401で収集された計測データにメタデータが付与され、開発用センサデータ42が生成される。生成された開発用センサデータ42はデータベース14に格納される。メタデータには、少なくとも開発用センサ端末6の識別子とユーザの識別子、開発用センサ端末6が装着された部位が含まれる。なおメタデータの付与には、データベース14に格納されるセンサテーブル46や、ユーザテーブル47、装着部位テーブル48、装着方向テーブル45が用いられても良い。
(S402)
By executing the metadata adding program 31, metadata is added to the measurement data collected in S401, and
図5A、図5B、図5C、図5Dを用いて、センサテーブル46、ユーザテーブル47、装着部位テーブル48、装着方向テーブル45のデータ構造の一例について説明する。センサテーブル46には、例えば基準センサ端末名961、基準センサ装着部位962、変換先センサ端末名964、変換先センサ装着部位965、軸方向変換モデルID968が含まれる。基準センサ端末名961には、軸方向の基準となる開発用センサ端末6の端末名が格納される。基準センサ装着部位962には、軸方向の基準となる開発用センサ端末6が装着された部位が格納される。変換先センサ端末名964には、軸方向が変換されるユーザ使用センサ端末1の端末名が格納される。変換先センサ装着部位965には、軸方向が変換されるユーザ使用センサ端末1が装着された部位が格納される。軸方向変換モデルID968には、軸方向変換モデル作成プログラム32によって作成される軸方向変換モデル43のIDが格納される。なお軸方向変換モデル43が作成される前の時点では軸方向変換モデルID968は未格納であっても良い。
An example of the data structure of the sensor table 46, user table 47, attachment site table 48, and attachment direction table 45 will be described using FIGS. 5A, 5B, 5C, and 5D. The sensor table 46 includes, for example, a reference
センサテーブル46には、さらに基準センサ装着方向963や変換先センサ装着方向966、抽出条件967が含まれても良い。基準センサ装着方向963には、軸方向の基準となる開発用センサ端末6が装着された方向が格納される。変換先センサ装着方向966には軸方向が変換されるユーザ使用センサ端末1が装着された方向が格納される。抽出条件967には、後述される対応区間をユーザ使用センサデータ41から抽出するときに使用される条件が格納される。
The sensor table 46 may further include a reference
ユーザテーブル47には、例えばユーザID971、利用センサ端末名972、装着部位973が含まれる。さらにユーザテーブル47には、装着方向974や軸方向変換モデルID977、利用開始時刻975、利用終了時刻976が含まれても良い。
The user table 47 includes, for example, a
装着部位テーブル48には、例えば利用センサ端末名981と許容装着部位982が含まれる。許容装着部位982には、ユーザ使用センサ端末1の装着が許容される部位が格納される。
The attachment site table 48 includes, for example, the name of the sensor terminal used 981 and the
装着方向テーブル45には、例えば利用センサ端末名991と許容装着方向992が含まれる。許容装着方向992には、ユーザ使用センサ端末1の装着が許容される方向が格納される。
The mounting direction table 45 includes, for example, a used
図4の説明に戻る。 Returning to the explanation of FIG. 4.
(S403)
S402で生成された開発用センサデータ42に対して基準区間が設定される。基準区間は、計測データの計測中にユーザのボタン操作によって定められる開始時刻と終了時刻によって設定されても良いし、計測データが計測されるときの基準となる行動が検出されてから所定の時間が経過するまでの間として設定されても良い。
(S403)
A reference interval is set for the
(S404)
ユーザ使用センサ端末1が使用される様々な場面に対応する全条件に対して、計測データが収集されるとともに基準区間が設定できたか否かが判定される。全条件に対して基準区間が設定できていれば処理の流れは終了となり、設定できていなければS401へ処理が戻されて未収集の条件に対する計測データが収集される。なお条件には、ウェアラブル端末の種類が含まれても良い。
(S404)
Measurement data is collected for all conditions corresponding to various situations in which the sensor terminal 1 used by the user is used, and it is determined whether the reference section has been set. If reference intervals have been set for all conditions, the process flow ends; if not, the process returns to S401 and measurement data for uncollected conditions is collected. Note that the conditions may include the type of wearable terminal.
以上の処理の流れにより、ユーザ使用センサ端末1が使用される様々な場面に対応する全条件に対して、開発用センサデータ42が生成されるとともに、開発用センサデータ42のそれぞれに対して基準区間が設定される。軸方向変換モデル作成プログラム32は、基準区間が設定された開発用センサデータ42を用いて、軸方向変換モデル43を作成する。
Through the above process flow, the
図6を用いて、軸方向変換モデル43が作成される処理の流れの一例について、処理ステップ毎に説明する。
An example of the flow of processing for creating the
(S601)
ユーザ使用センサ端末1によって計測データが収集され、収集された計測データはメタデータとともにサーバ5へ送信される。
(S601)
Measurement data is collected by the sensor terminal 1 used by the user, and the collected measurement data is transmitted to the server 5 together with metadata.
(S602)
メタデータ付与プログラム31が実行されることにより、S601で収集された計測データにメタデータが付与され、ユーザ使用センサデータ41が生成される。メタデータには、少なくともユーザ使用センサ端末1の識別子とユーザの識別子、ユーザ使用センサ端末1が装着された部位が含まれる。メタデータには、さらにユーザ使用センサ端末1が装着された方向が含まれても良い。またメタデータの付与には、データベース14に格納されるセンサテーブル46や、ユーザテーブル47、装着部位テーブル48、装着方向テーブル45が用いられても良い。
(S602)
By executing the metadata adding program 31, metadata is added to the measurement data collected in S601, and user-used
(S603)
S602で生成されたユーザ使用センサデータ41から対応区間が抽出される。対応区間は、開発用センサデータ42に対して設定された基準区間に対応する区間であり、抽出条件に基づいて抽出される。抽出条件は、ユーザによって入力されたり、ユーザが選択する基準に応じて予め設定されたりする。例えば選択される基準行動に歩行やラジオ体操、静止状態があり、歩行が選択される場合は、三軸のうちの一軸において所定の周波数帯域、例えば2Hzの周波数パワーに対する閾値が抽出条件として設定され、当該周波数パワーが閾値を超える区間が対応区間とされる。またラジオ体操が選択される場合は、特定のリズムで行われる特定動作を表す時系列パターンデータが抽出条件として設定され、当該時系列パターンデータとの一致度がより高い区間が対応区間とされる。また静止状態が選択される場合は、重力加速度が抽出条件として設定され、三軸のうちの一軸において重力加速度が最大であり続ける区間が対応区間とされる。
(S603)
A corresponding section is extracted from the user-used
(S604)
S603で抽出された対応区間が適切であるか否かが判定される。適切であればS605へ処理が進められ、不適切であればS601へ処理が戻されて再び計測データが収集される。対応区間が適切であるか否かは、例えば一定時間以上の対応区間が抽出されたか否かによって判定される。すなわち基準行動である歩行やラジオ体操の動作や静止状態が一定時間以上にわたって検出されると、適切に対応区間が抽出されたとして判定される。
(S604)
It is determined whether the corresponding section extracted in S603 is appropriate. If appropriate, the process advances to S605; if inappropriate, the process returns to S601 and measurement data is collected again. Whether or not the corresponding section is appropriate is determined by, for example, whether or not a corresponding section that lasts a certain period of time or more is extracted. In other words, when the standard behavior of walking, radio calisthenics, or standing still is detected for a certain period of time or more, it is determined that the corresponding section has been appropriately extracted.
(S605)
S603で抽出された対応区間に対応する基準区間を含む開発用センサデータ42が読み込まれる。データベース14にはユーザ使用センサ端末1が使用される様々な場面に対応する開発用センサデータ42が格納されているので、その中から対応する開発用センサデータ42がメタデータに基づいて読み出される。なおユーザ使用センサデータ41のメタデータと開発用センサデータ42のメタデータとは、必ずしも完全に一致しなくても良い。例えば、ユーザ使用センサデータ41の装着部位917が左手首である場合は、開発用センサデータ42の装着部位907が右手首であっても良い。すなわち、装着部位に関しては左右対称な部位であることが許容され、以降の処理において身体の対称性が利用される。
(S605)
The
(S606)
S603で抽出された対応区間のユーザ使用センサデータ41に対して前処理が実施され、例えばユーザ使用センサデータ41のサンプリングレートやダイナミックレンジが開発用センサデータ42のものと揃えられる。またユーザ使用センサデータ41の装着部位917と開発用センサデータ42の装着部位907とが左右対称である場合は、ユーザ使用センサデータ41に対して対称性に基づく処理、例えば左右方向の計測データの正負を入れ替える処理が実施される。
(S606)
Pre-processing is performed on the user-used
(S607)
S605で読み込まれた生成された開発用センサデータ42とS606で前処理が実施されたユーザ使用センサデータ41との各三軸のうちの一軸同士が対応付けられる。例えば、両データの基準行動が歩行である場合、両データの各三軸に対してフーリエ変換を用いた周波数解析によって周波数パワーが算出され、三軸の中で周波数パワーが最大となる一軸同士が対応付けられる。また基準行動がラジオ体操である場合、両データの各三軸の時系列データ間の類似度が算出され、類似度が最大となる一軸同士が対応付けられる。時系列データ間の類似度の算出には、例えば動的時間伸縮法等が用いられる。また両データが静止状態で計測された場合、重力加速度が最大となる一軸同士が対応付けられる。対応付けられた一軸同士は両データの基準軸とされ、両方の基準軸が正負方向も含めて一致するようにユーザ使用センサデータ41を回転させるモデルである一軸変換モデルRefAxが算出される。
(S607)
One axis of each of the three axes of the generated
(S608)
開発用センサデータ42とユーザ使用センサデータ41との各三軸のうちの基準軸以外の二軸同士が対応付けられる。二軸同士を対応付ける具体的な手順の一例について説明する。
(S608)
Of the three axes of the
まず、S607で算出された一軸変換モデルRefAxを用いて、両基準軸の方向が一致するようにユーザ使用センサデータ41を回転させる。開発用センサデータ42の三軸を[Xdev、 Ydev、 Zdev]、ユーザ使用センサデータ41の三軸を[x、 y、 z]、回転後のユーザ使用センサデータ41の三軸を[x2、 y2、 z2]とすると、一軸変換モデルRefAxを用いて、[x2、 y2、 z2]=RefAx・[x、 y、 z]となる。
First, using the uniaxial conversion model RefAx calculated in S607, the user-used
そして回転後のユーザ使用センサデータ41を基準軸の周りでさらに回転させて、基準軸以外の二軸同士を対応付ける。Zdevとzが基準軸として対応付けられた場合、z2は開発用センサデータ42の基準軸Zdevと平行であるので、[x2、 y2、 z2]をz2の周りで回転させることにより、基準軸以外の二軸同士が対応付けられる。すなわち回転角θに関する回転行列Rot(θ)を用いたRot(θ)・[x2、 y2、 z2]=Rot(θ)・RefAx・[x、 y、 z]が開発用センサデータ42の三軸[Xdev、 Ydev、 Zdev]と対応付けられる。そこで両者の誤差が最小となる回転角θ′を算出し、θ′を用いたRot(θ′)が基準軸以外の二軸を対応付けるモデルである他二軸変換モデルとなる。なお両者の誤差の最小値が予め定められた許容誤差よりも大きい場合には、ユーザ使用センサ端末1の装着に不具合があるとの警告が発せられても良い。
Then, the rotated user-used
また開発用センサ端末6およびユーザ使用センサ端末1に含まれる加速度センサが同じ向きであって、両端末の装着部位が同一である場合、両端末が装着される方向の自由度は限定される。そこで、回転角θの探索範囲を0°、90°、180°、270°の4種類に限定し、各角度に対して開発用センサデータ42との誤差を算出し、誤差が最小となるθ′を用いて他二軸変換モデルRot(θ′)を算出しても良い。さらにユーザ使用センサデータ41と開発用センサデータ42に装着方向が含まれ、双方の装着方向が一致する場合は回転角θ=0°であるので、誤差が最小となる回転角θ′と予め定められた許容誤差εとの比較により装着方向の正否が判定されても良い。すなわち|θ′|≦εであれば装着方向は概ね合っていると判定され、|θ′|>εであれば装着方向に誤りがあると判定され、その旨を知らせる警告が発せられても良い。
Furthermore, if the acceleration sensors included in the
また開発用センサデータ42との誤差の最小化には、基準行動が歩行であるときの周波数パワーや、ラジオ体操であるときの時系列データ間の類似度が用いられても良い。さらに、基準軸以外の二軸同士の対応付けには、回転行列Rot(θ)が用いられることに限定されず、回転ベクトルやクォータニオン、オイラー角が用いられても良い。
Further, to minimize the error with the
(S609)
S607で算出された一軸変換モデルRefAxとS608で算出された他二軸変換モデルRot(θ′)に基づいて、軸方向変換モデル43が生成される。すなわち、軸方向変換モデル43は、Rot(θ′)・RefAxとして生成される。
(S609)
The axial
以上の処理の流れにより、軸方向を変換するモデルである軸方向変換モデル43が生成される。軸方向変換モデル43の生成は、サーバ5がユーザ使用センサデータ41を受信したタイミングで自動的に、あるいは定期的に、あるいはユーザの指示に基づいて実行される。生成された軸方向変換モデル43は、‘の軸方向を開発用センサ端末6の軸方向に変更する処理に用いられる。
Through the above processing flow, the axial
図7を用いて、ユーザ使用センサ端末1の軸方向を開発用センサ端末6の軸方向に変更する処理の流れの一例について、処理ステップ毎に説明する。
An example of the process flow for changing the axial direction of the sensor terminal 1 used by the user to the axial direction of the
(S701)
ユーザ使用センサ端末1によって計測データが収集され、収集された計測データはメタデータとともにサーバ5へ送信される。
(S701)
Measurement data is collected by the sensor terminal 1 used by the user, and the collected measurement data is transmitted to the server 5 together with metadata.
(S702)
メタデータ付与プログラム31が実行されることにより、S701で収集された計測データにメタデータが付与され、ユーザ使用センサデータ41が生成される。
(S702)
By executing the metadata adding program 31, metadata is added to the measurement data collected in S701, and user-used
(S703)
S702で生成されたユーザ使用センサデータ41に対して前処理が実施され、例えばユーザ使用センサデータ41のサンプリングレートやダイナミックレンジが開発用センサデータ42のものと揃えられたり、対称性に基づく処理が実施されたりする。なお、サンプリングレートやダイナミックレンジに関する処理は、軸方向変換モデル43が生成される過程で実施されているので必須ではない。
(S703)
Pre-processing is performed on the user-used
(S704)
S703で前処理が実施されたユーザ使用センサデータ41の軸方向が変更され、付与後センサデータ44が生成される。軸方向の変更には、軸方向変換モデル43が用いられる。付与後センサデータ44のメタデータには、軸変換が実施済みか否かを示すフラグや軸方向変換モデル43のIDが含まれても良い。軸変換が未実施の場合、付与後センサデータ44の計測データは、ユーザ使用センサデータ41の計測データのままであり、軸方向変換モデル43のIDを参照することにより任意のタイミングで軸変換がなされても良い。
(S704)
The axial direction of the user-used
(S705)
ユーザ使用センサ端末1による計測データの収集を継続するか否かが判定される。継続する場合はS701へ処理が戻され、継続しない場合は処理の流れは終了となる。
(S705)
It is determined whether or not to continue collecting measurement data by the sensor terminal 1 used by the user. If the process is to be continued, the process returns to S701; if the process is not to be continued, the process flow ends.
以上の処理の流れにより、ユーザ使用センサ端末1の軸方向が開発用センサ端末6の軸方向に変更される。軸方向の変更結果は、PC2やスマートフォン3に表示されても良い。
Through the above process flow, the axial direction of the sensor terminal 1 used by the user is changed to the axial direction of the
図8及び図9を用いて、スマートフォン3に表示される画面の一例について説明する。図8に例示される画面は、上段、中段、下段に分かれ、画面の上段には計測中センサデータ表示部101と開始ボタン102、終了ボタン103が配置される。計測中センサデータ表示部101には、ユーザ使用センサ端末1によって計測され、軸方向変換モデル43によって軸方向が変更された3軸の加速度データである計測データが表示される。なお後述される軸変換切替部109によって、軸方向が変更される前の計測データの表示に切り替えられても良い。開始ボタン102と終了ボタン103は、ユーザ使用センサ端末1による計測の開始と終了を指示するボタンである。図8では計測中であるため、開始ボタン102がグレーアウトされる。
An example of a screen displayed on the
画面の中段には、第一特徴量表示部104と第二特徴量表示部105が配置される。第一特徴量表示部104には開発用センサデータ42から抽出される特徴量が表示され、第二特徴量表示部105にはユーザ使用センサデータ41から抽出される特徴量が表示される。図8には、歩行時の計測データから算出される周波数パワーが特徴量として例示され、2Hz前後の歩行周波数帯が基準とされている。またラジオ体操時の開発用センサデータ42とユーザ使用センサデータ41のそれぞれから求められる時系列データパターンが、第一特徴量表示部104と第二特徴量表示部105に表示されても良い。ユーザは第一特徴量表示部104と第二特徴量表示部105に表示される特徴量を見比べることにより、軸方向が揃えられたことを定性的に確認できる。
A first feature
画面の下段には、ユーザID入力・表示部106、センサ端末名入力・表示部107、装着部位入力・表示部108、軸変換切替部109、基準軸抽出条件入力・表示部110が配置される。ユーザID入力・表示部106にはユーザIDが表示され、必要に応じてユーザIDが入力しなおされても良い。センサ端末名入力・表示部107にはセンサ端末名が表示され、必要に応じてセンサ端末名が入力しなおされても良い。装着部位入力・表示部108には装着部位が表示され、必要に応じて装着部位が入力しなおされても良い。軸変換切替部109には軸変換がなされたか否かを示す「済」または「未済」が表示され、必要に応じて両者が切り替えられる。軸変換切替部109が「済」である場合には計測中センサデータ表示部101に軸方向が変更された計測データが表示され、「未済」である場合には軸方向が変更される前の計測データが表示される。基準軸抽出条件入力・表示部110には、対応区間を抽出する条件である基準軸抽出条件が表示され、必要に応じて基準軸抽出条件が入力しなおされても良い。
At the bottom of the screen, a user ID input/
なお何らかの理由により軸方向が揃えられない場合には、図9に例示される警告画面が表示されても良い。図9の警告画面では、歩行時の計測データから算出される周波数パワーが6Hz付近で最大であり、速すぎる歩行速度の低下を促す警告115が表示される。警告115には、対応区間の抽出条件の変更を促すことが表示されても良い。
Note that if the axial directions cannot be aligned for some reason, a warning screen illustrated in FIG. 9 may be displayed. In the warning screen of FIG. 9, the frequency power calculated from the measurement data during walking is maximum around 6 Hz, and a
以上の実施例1により、異なるタイミングで計測されたユーザ使用センサデータ41と開発用センサデータ42であっても、ユーザ使用センサ端末1と開発用センサ端末6の軸方向を合わせることができる。また図8や図9に例示される画面により、軸方向が揃えられたことや何らかの理由により軸方向が揃えられなかったことをユーザが確認できる。
According to the first embodiment described above, even if the user-used
実施例1では、異なるタイミングで計測されたユーザ使用センサデータ41と開発用センサデータ42に基づいて、ユーザ使用センサ端末1と開発用センサ端末6の軸方向を合わせることについて説明した。実施例2では、ユーザ使用センサ端末1と開発用センサ端末6の軸方向が合わられた行動解析システムにより、ユーザの行動を解析することについて説明する。なお、実施例1と同じ構成に対しては同じ符号を付与し、説明を省略する。
In the first embodiment, the axial directions of the user-used sensor terminal 1 and the development-
図10を用いて、実施例2の行動解析システムの全体構成について説明する。実施例2の行動解析システムは、実施例1に対して行動解析プログラム23と行動解析モデル49、行動解析結果データ50が追加される。すなわちCPU13はセンサデータ入出力プログラム21や軸方向変更プログラム22とともにメモリ11にロードされた行動解析プログラム23を実行する。またデータベース14には、行動解析モデル49と行動解析結果データ50が格納される。
The overall configuration of the behavior analysis system of Example 2 will be described using FIG. 10. The behavior analysis system of the second embodiment has a
行動解析プログラム23は、行動解析モデル49に基づいてユーザの行動を解析するプログラムである。行動解析プログラム23によって、例えば睡眠状態や睡眠レベルが判別されたり、歩行や腕振り、ハンマーを叩くといった動作が検出されたりする。
The
行動解析モデル49は、ユーザ使用センサ端末1によって計測された計測データからユーザの行動を出力するモデルであり、開発用センサ端末6によって様々な条件下で計測された計測データを用いて作成される。行動解析モデル49の作成には機械学習が用いられても良く、例えば特定の行動時に計測された開発用センサデータ42を教師データとして学習がなされる。行動解析結果データ50は行動解析モデル49から出力されるデータである。
The
図11を用いて、実施例2の行動解析システムによる行動解析の処理の流れの一例について、ステップ毎に説明する。 An example of the flow of behavior analysis processing by the behavior analysis system of the second embodiment will be explained step by step with reference to FIG. 11 .
(S1101)
付与後センサデータ44が行動解析プログラム23に入力されて、ユーザの行動が解析される。行動解析では、例えば歩行動作の検出や物品のピッキングや配送といった業務中に行われる行動が判別される。解析された結果は行動解析結果データ50としてデータベース14に格納される。
(S1101)
After the provision, the
S1101では、開発用センサ端末6で計測された開発用センサデータ42の軸方向に変換された付与後センサデータ44が入力されるので、軸方向の影響を受けることなく行動解析モデル49を利用することができる。すなわち、ユーザ使用センサ端末1で計測されたユーザ使用センサデータ41がそのまま入力されたときに軸方向の影響によって低下する解析精度が、付与後センサデータ44を入力することにより改善される。特に行動解析モデル49がニューラルネットワークベースで構成されている場合に改善効果は顕著となる。
In S1101, the assigned
(S1102)
行動解析を継続するか否かが判定される。継続する場合はS1101へ処理が戻され、継続しない場合はS1103へ処理が進められる。
(S1102)
It is determined whether or not to continue behavioral analysis. If the process is to be continued, the process returns to S1101, and if it is not to be continued, the process is to proceed to S1103.
(S1103)
行動解析モデル49の再学習をするか否かが判定される。再学習する場合はS1104へ処理が進められ、再学習しない場合は処理の流れは終了となる。
(S1103)
It is determined whether or not to relearn the
(S1104)
付与後センサデータ44を用いて、行動解析モデル49の再学習が実行される。例えば既存の行動解析モデル49が有するニューラルネットワークの重みを起点として、付与後センサデータ44のみを用いた再学習が実行される。または既存の行動解析モデル49の作成に用いられた開発用センサデータ42に、付与後センサデータ44が追加されたデータを教師データとし、ニューラルネットワークの重みをしたうえで再学習が実行されても良い。付与後センサデータ44は、開発用センサデータ42と同じ軸方向を有しているので、行動解析モデル49の再学習に利用しやすい。
(S1104)
Relearning of the
以上の処理の流れにより、高精度な行動解析が実行される。行動解析の結果は、PC2やスマートフォン3に表示されても良い。
Through the above processing flow, highly accurate behavior analysis is executed. The results of the behavior analysis may be displayed on the
図12を用いて、スマートフォン3に表示される画面の一例について説明する。図12に例示される画面では、図9の画面の中段に配置される第一特徴量表示部104と第二特徴量表示部105の代わりに、歩行ピッチ表示部111と物品ピッキング表示部112が配置される。歩行ピッチ表示部111には、ユーザの歩行ピッチの推移が表示され、物品ピッキング表示部112には物品ピッキングの判別結果が表示される。
An example of a screen displayed on the
以上の実施例2によれば、付与後センサデータ44を用いることにより、開発用センサデータ42とユーザ使用センサデータ41との軸方向に差異の影響を受けることなく行動解析を実行できるため、高精度な解析結果を得ることができる。また付与後センサデータ44は開発用センサデータ42と軸方向が揃えられているため、付与後センサデータ44を用いて行動解析モデル49を再学習させることができる。
According to the above-described second embodiment, by using the assigned
以上、本発明の複数の実施例について説明した。本発明は上記実施形態に限定されるものではなく、発明の要旨を逸脱しない範囲で構成要素を変形して具体化できる。また、上記実施形態に開示されている複数の構成要素を適宜組み合わせても良い。さらに、上記実施形態に示される全構成要素からいくつかの構成要素を削除しても良い。 A plurality of embodiments of the present invention have been described above. The present invention is not limited to the above-described embodiments, but can be embodied by modifying the constituent elements without departing from the gist of the invention. Further, a plurality of components disclosed in the above embodiments may be combined as appropriate. Furthermore, some components may be deleted from all the components shown in the above embodiments.
上記の各構成、機能、処理部、処理手段等は、それらの一部または全部を、例えば集積回路で設計する等によってハードウェアで実現してもよい。また、上記の各構成、機能等は、プロセッサがそれぞれの機能を実現するプログラムを解釈し、実行することによってソフトウェアで実現してもよい。各機能を実現するプログラム、テーブル、ファイル等の情報は、メモリ、ハードディスクドライブ、SSD(Solid State Drive)等の記憶装置、または、ICカード、SDカード、DVD等の計算機読み取り可能な非一時的データ記憶媒体に格納することができる。 Part or all of the above-mentioned configurations, functions, processing units, processing means, etc. may be realized in hardware by designing, for example, an integrated circuit. Further, each of the above configurations, functions, etc. may be realized by software by a processor interpreting and executing a program for realizing each function. Information such as programs, tables, files, etc. that realize each function is stored in storage devices such as memory, hard disk drive, SSD (Solid State Drive), or computer-readable non-temporary data such as IC cards, SD cards, and DVDs. It can be stored on a storage medium.
また、図面には、実施例を説明するために必要と考えられる制御線及び情報線を示しており、必ずしも、本発明が適用された実際の製品に含まれる全ての制御線及び情報線を示しているとは限らない。実際にはほとんど全ての構成が相互に接続されていると考えてもよい。 In addition, the drawings show control lines and information lines that are considered necessary for explaining the embodiments, and do not necessarily show all control lines and information lines included in an actual product to which the present invention is applied. It doesn't necessarily mean that In reality, almost all configurations may be considered to be interconnected.
1:ユーザ使用センサ端末、2:PC、3:スマートフォン、4:ネットワーク、5:サーバ、6:開発用センサ端末、11:メモリ、12:通信部、13:CPU、14:データベース、21:センサデータ入出力プログラム、22:軸方向変更プログラム、23:行動解析プログラム、31:メタデータ付与プログラム、32:軸方向変換モデル作成プログラム、33:軸方向変換プログラム、41:ユーザ使用センサデータ、42:開発用センサデータ、43:軸方向変換モデル、44:付与後センサデータ、45:装着方向テーブル、46:センサテーブル、47:ユーザテーブル、48:装着部位テーブル、49:行動解析モデル、50:行動解析結果データ、101:計測中センサデータ表示部、102:開始ボタン、103:終了ボタン、104:第一特徴量表示部、105:第二特徴量表示部、106:ユーザID入力・表示部、107:センサ端末名入力・表示部、108:装着部位入力・表示部、109:軸変換切替部、110:基準軸抽出条件入力・表示部、111:歩行ピッチ表示部、112:物品ピッキング表示部、115:警告、901:時刻、902:X軸加速度、903:Y軸加速度、904:Z軸加速度、905:ユーザID、906:センサ端末名、907:装着部位、908:装着方向、909:基準行動、911:時刻、912:X軸加速度、913:Y軸加速度、914:Z軸加速度、915:ユーザID、916:センサ端末名、917:装着部位、918:装着方向、919:抽出条件、931:時刻、932:X軸加速度、933:Y軸加速度、934:Z軸加速度、935:ユーザID、936:センサ端末名、937:装着部位、938:装着方向、939:軸変換、940:軸方向変換モデルID、951:軸方向変換モデルID、952:基準センサ端末名、953:対象センサ端末名、954:装着部位、955:変換式、956:装着方向、957:抽出条件、958:基準一軸、959:他二軸、961:基準センサ端末名、962:基準センサ装着部位、963:基準センサ装着方向、964:変換先センサ端末名、965:変換先センサ装着部位、966:変換先センサ装着方向、967:抽出条件、968:軸方向変換モデルID、971:ユーザID、972:利用センサ端末名、973:装着部位、974:装着方向、975:利用開始時刻、976:利用終了時刻、977:軸方向変換モデルID、981:利用センサ端末名、982:許容装着部位、991:利用センサ端末名、992:許容装着方向 1: Sensor terminal used by user, 2: PC, 3: Smartphone, 4: Network, 5: Server, 6: Sensor terminal for development, 11: Memory, 12: Communication department, 13: CPU, 14: Database, 21: Sensor Data input/output program, 22: Axis direction change program, 23: Behavior analysis program, 31: Metadata addition program, 32: Axis direction conversion model creation program, 33: Axis direction conversion program, 41: Sensor data used by user, 42: Development sensor data, 43: Axial direction conversion model, 44: Sensor data after provision, 45: Attachment direction table, 46: Sensor table, 47: User table, 48: Attachment site table, 49: Behavior analysis model, 50: Behavior Analysis result data, 101: Sensor data display section during measurement, 102: Start button, 103: End button, 104: First feature amount display section, 105: Second feature amount display section, 106: User ID input/display section, 107: Sensor terminal name input/display section, 108: Mounting site input/display section, 109: Axis conversion switching section, 110: Reference axis extraction condition input/display section, 111: Walking pitch display section, 112: Article picking display section , 115: Warning, 901: Time, 902: X-axis acceleration, 903: Y-axis acceleration, 904: Z-axis acceleration, 905: User ID, 906: Sensor terminal name, 907: Attachment site, 908: Attachment direction, 909: Reference behavior, 911: Time, 912: X-axis acceleration, 913: Y-axis acceleration, 914: Z-axis acceleration, 915: User ID, 916: Sensor terminal name, 917: Attachment site, 918: Attachment direction, 919: Extraction condition , 931: Time, 932: X-axis acceleration, 933: Y-axis acceleration, 934: Z-axis acceleration, 935: User ID, 936: Sensor terminal name, 937: Attachment site, 938: Attachment direction, 939: Axis conversion, 940 : Axial direction conversion model ID, 951: Axial direction conversion model ID, 952: Reference sensor terminal name, 953: Target sensor terminal name, 954: Mounting site, 955: Conversion formula, 956: Mounting direction, 957: Extraction condition, 958 : Reference one axis, 959: Other two axes, 961: Reference sensor terminal name, 962: Reference sensor mounting part, 963: Reference sensor mounting direction, 964: Conversion destination sensor terminal name, 965: Conversion destination sensor mounting part, 966: Conversion Previous sensor attachment direction, 967: Extraction condition, 968: Axial direction conversion model ID, 971: User ID, 972: Used sensor terminal name, 973: Attachment site, 974: Attachment direction, 975: Usage start time, 976: Usage end Time, 977: Axial direction conversion model ID, 981: Name of sensor terminal used, 982: Allowable mounting location, 991: Name of sensor terminal used, 992: Allowable mounting direction
Claims (11)
第一センサによって複数の軸方向について計測され、基準行動が付与された様々な第一計測データのそれぞれに対して基準区間を設定する設定部と、
前記第一計測データと異なるタイミングで第二センサによって複数の軸方向について計測された第二計測データの中から前記基準区間に対応する対応区間を、ユーザが選択する基準に応じて予め設定される抽出条件に基づいて抽出する抽出部と、
前記抽出条件に対応する基準行動に基づいて前記様々な第一計測データの中から読み出された前記基準区間の第一計測データと前記対応区間の第二計測データとに基づいて、軸方向を変換するモデルである軸方向変換モデルを生成する生成部と、
前記軸方向変換モデルを用いて、前記第二センサの軸方向を前記第一センサの軸方向に変換する変換部を備えることを特徴とする行動解析システム。 A behavior analysis system that analyzes user behavior,
a setting unit that sets a reference section for each of various first measurement data measured in a plurality of axial directions by the first sensor and assigned a reference behavior ;
A corresponding section corresponding to the reference section is set in advance according to a criterion by which the user selects a corresponding section from among second measurement data measured in a plurality of axial directions by a second sensor at a timing different from the first measurement data. an extraction unit that extracts based on extraction conditions ;
The axial direction is determined based on the first measurement data of the reference section and the second measurement data of the corresponding section, which are read out from the various first measurement data based on the reference behavior corresponding to the extraction condition. a generation unit that generates an axial transformation model that is a model to be transformed;
A behavior analysis system comprising: a conversion unit that converts the axial direction of the second sensor to the axial direction of the first sensor using the axial direction conversion model.
前記抽出部は、前記基準区間が設定されるときの設定条件に基づいて対応区間を抽出することを特徴とする行動解析システム。 The behavior analysis system according to claim 1,
The behavior analysis system is characterized in that the extraction unit extracts the corresponding section based on a setting condition when the reference section is set.
前記設定条件には、基準となる行動である基準行動として、歩行、ラジオ体操、静止状態のいずれかが含まれることを特徴とする行動解析システム。 The behavior analysis system according to claim 2,
The behavior analysis system is characterized in that the setting conditions include one of walking, radio calisthenics, and a resting state as a standard behavior.
前記生成部は、前記第一計測データと前記第二計測データの複数の軸のうちの一軸同士を基準軸として対応付けてから、前記第一計測データと前記第二計測データの一方を前記基準軸の周りで回転させて基準軸以外の軸を対応付けることによって前記軸方向変換モデルを生成することを特徴とする行動解析システム。 The behavior analysis system according to claim 1,
The generation unit associates one axis of the plurality of axes of the first measurement data and the second measurement data with each other as a reference axis, and then sets one of the first measurement data and the second measurement data as the reference axis. A behavior analysis system characterized in that the axial direction transformation model is generated by rotating the model around an axis and associating it with axes other than the reference axis.
前記生成部は、前記第一計測データと前記第二計測データの複数の軸毎に算出される周波数パワーが最大となる一軸同士を前記基準軸として対応付けることを特徴とする行動解析システム。 The behavior analysis system according to claim 4,
The behavior analysis system is characterized in that the generation unit associates, as the reference axis, one axis in which the frequency power calculated for each of a plurality of axes of the first measurement data and the second measurement data is maximum.
前記生成部は、前記第一計測データと前記第二計測データの複数の軸毎に時系列データを求め、前記時系列データの間の類似度が最大となる一軸同士を前記基準軸として対応付けることを特徴とする行動解析システム。 The behavior analysis system according to claim 4,
The generation unit obtains time series data for each of a plurality of axes of the first measurement data and the second measurement data, and associates one axis with a maximum degree of similarity between the time series data as the reference axis. A behavior analysis system featuring:
前記生成部は、前記第一センサが装着される部位と前記第二センサが装着される部位とが左右対称であるときに、前記第二計測データの左右方向のデータの正負を入れ替えてから前記軸方向変換モデルを生成することを特徴とする行動解析システム。 The behavior analysis system according to claim 1,
When the part to which the first sensor is attached and the part to which the second sensor is attached are bilaterally symmetrical, the generation section replaces the positive and negative of the left and right data of the second measurement data, and then generates the second measurement data. A behavior analysis system characterized by generating an axial transformation model.
前記第一計測データと前記第二計測データには、メタデータとして装着方向が含まれることを特徴とする行動解析システム。 The behavior analysis system according to claim 1,
A behavior analysis system characterized in that the first measurement data and the second measurement data include a wearing direction as metadata.
前記行動を解析するモデルであって、前記第一計測データを学習することによって作成される行動解析モデルを記憶する記憶部と、
前記第二計測データを前記変換部によって変換させて生成される変換後データを前記行動解析モデルに入力することによって前記行動の解析結果を出力する解析部をさらに備えることを特徴とする行動解析システム。 The behavior analysis system according to claim 1,
a storage unit that stores a behavior analysis model that is a model for analyzing the behavior and is created by learning the first measurement data;
The behavior analysis system further includes an analysis unit that outputs an analysis result of the behavior by inputting converted data generated by converting the second measurement data by the conversion unit into the behavior analysis model. .
前記変換後データを用いて前記行動解析モデルを再学習させる再学習部をさらに備えることを特徴とする行動解析システム。 The behavior analysis system according to claim 9,
A behavior analysis system further comprising a relearning unit that retrains the behavior analysis model using the converted data.
第一センサによって複数の軸方向について計測され、基準行動が付与された様々な第一計測データのそれぞれに対して基準区間を設定する設定ステップと、
前記第一計測データと異なるタイミングで第二センサによって複数の軸方向について計測された第二計測データの中から前記基準区間に対応する対応区間を、ユーザが選択する基準に応じて予め設定される抽出条件に基づいて抽出する抽出ステップと、
前記抽出条件に対応する基準行動に基づいて前記様々な第一計測データの中から読み出された前記基準区間の第一計測データと前記対応区間の第二計測データとに基づいて、軸方向を変換するモデルである軸方向変換モデルを生成する生成ステップと、
前記軸方向変換モデルを用いて、前記第二センサの軸方向を前記第一センサの軸方向に変換する変換ステップを備えることを特徴とする行動解析方法。 A behavior analysis method using a behavior analysis system that analyzes user behavior,
a setting step of setting a reference interval for each of various first measurement data measured in a plurality of axial directions by the first sensor and assigned a reference action ;
A corresponding section corresponding to the reference section is set in advance according to a criterion by which the user selects a corresponding section from among second measurement data measured in a plurality of axial directions by a second sensor at a timing different from the first measurement data. an extraction step for extracting based on extraction conditions ;
The axial direction is determined based on the first measurement data of the reference section and the second measurement data of the corresponding section, which are read out from the various first measurement data based on the reference behavior corresponding to the extraction condition. a generation step of generating an axial transformation model that is a model to be transformed;
A behavior analysis method comprising a conversion step of converting the axial direction of the second sensor to the axial direction of the first sensor using the axial direction conversion model.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2020173081A JP7449838B2 (en) | 2020-10-14 | 2020-10-14 | Behavior analysis system and behavior analysis method using it |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2020173081A JP7449838B2 (en) | 2020-10-14 | 2020-10-14 | Behavior analysis system and behavior analysis method using it |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2022064449A JP2022064449A (en) | 2022-04-26 |
JP7449838B2 true JP7449838B2 (en) | 2024-03-14 |
Family
ID=81385813
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020173081A Active JP7449838B2 (en) | 2020-10-14 | 2020-10-14 | Behavior analysis system and behavior analysis method using it |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP7449838B2 (en) |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2004141669A (en) | 2000-10-16 | 2004-05-20 | Omron Healthcare Co Ltd | Body motion detector |
JP2011177300A (en) | 2010-02-26 | 2011-09-15 | Emprie Technology Development LLC | Feature transformation apparatus and feature transformation method |
JP2017506745A (en) | 2014-05-09 | 2017-03-09 | コーニンクレッカ フィリップス エヌ ヴェKoninklijke Philips N.V. | Method and apparatus for determining the direction of an accelerometer |
WO2018092219A1 (en) | 2016-11-16 | 2018-05-24 | 富士通株式会社 | Information processing system, information processing device, information processing method and information processing program |
US10182746B1 (en) | 2017-07-25 | 2019-01-22 | Verily Life Sciences Llc | Decoupling body movement features from sensor location |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2011177330A (en) * | 2010-03-01 | 2011-09-15 | Seiko Epson Corp | Excision device and air-bubble detecting method |
-
2020
- 2020-10-14 JP JP2020173081A patent/JP7449838B2/en active Active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2004141669A (en) | 2000-10-16 | 2004-05-20 | Omron Healthcare Co Ltd | Body motion detector |
JP2011177300A (en) | 2010-02-26 | 2011-09-15 | Emprie Technology Development LLC | Feature transformation apparatus and feature transformation method |
JP2017506745A (en) | 2014-05-09 | 2017-03-09 | コーニンクレッカ フィリップス エヌ ヴェKoninklijke Philips N.V. | Method and apparatus for determining the direction of an accelerometer |
WO2018092219A1 (en) | 2016-11-16 | 2018-05-24 | 富士通株式会社 | Information processing system, information processing device, information processing method and information processing program |
US10182746B1 (en) | 2017-07-25 | 2019-01-22 | Verily Life Sciences Llc | Decoupling body movement features from sensor location |
Also Published As
Publication number | Publication date |
---|---|
JP2022064449A (en) | 2022-04-26 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11455909B2 (en) | Identification and analysis of movement using sensor devices | |
US10860091B2 (en) | Motion predictions of overlapping kinematic chains of a skeleton model used to control a computer system | |
US11474593B2 (en) | Tracking user movements to control a skeleton model in a computer system | |
US20180070864A1 (en) | Methods and devices for assessing a captured motion | |
EP3474235A1 (en) | Information processing device, information processing method and storage medium | |
US11175729B2 (en) | Orientation determination based on both images and inertial measurement units | |
KR20170129716A (en) | A structure, apparatus and method for providing bi-directional functional training content including provision of adaptive training programs based on performance sensor data | |
CN107920783A (en) | System and method for monitoring motion and orientation patterns associated with physical activity of a user | |
US20220222975A1 (en) | Motion recognition method, non-transitory computer-readable recording medium and information processing apparatus | |
CN110477924B (en) | Adaptive motion attitude sensing system and method | |
CN110456902A (en) | Track user movements to control skeletal models in computer systems | |
Chen et al. | Development of an upper limb rehabilitation system using inertial movement units and kinect device | |
KR20180015150A (en) | Structures and methods configured to enable the analysis of physically performed functions, including the application of supply of interactive training content | |
JP7449838B2 (en) | Behavior analysis system and behavior analysis method using it | |
KR102643876B1 (en) | A Posture Coaching System and Method for Weight Training by Motion Pattern | |
JP6415869B2 (en) | Golf swing analysis device, golf swing analysis method, and golf swing analysis program | |
WO2023182726A1 (en) | Electronic device and method for segmentation of movement repetitions and extraction of performance metrics | |
CN117109567A (en) | Riding gesture monitoring method and system for dynamic bicycle movement and wearable riding gesture monitoring equipment | |
JP2022150491A (en) | Work support system | |
TW202201183A (en) | Motion determination method and system capable of achieving real-time determination of the fine movement of the user's motion, and providing position of motion error | |
US12214253B1 (en) | Swing analysis system | |
US20240386751A1 (en) | Posture estimating device, posture estimating system, and posture estimating method | |
CN116071829A (en) | Action recognition method and device | |
Yongming | Tennis Player Pose Recognition Algorithm Based on IMU Sensor and KNN | |
JP2003222514A (en) | Sensor configuration determination device, sensor configuration determination method, sensor configuration determination program and recording medium for program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20230221 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20230925 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20231024 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20231214 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20240227 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20240304 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7449838 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |