[go: up one dir, main page]

JP5641222B2 - Arithmetic processing device, motion analysis device, display method and program - Google Patents

Arithmetic processing device, motion analysis device, display method and program Download PDF

Info

Publication number
JP5641222B2
JP5641222B2 JP2010271630A JP2010271630A JP5641222B2 JP 5641222 B2 JP5641222 B2 JP 5641222B2 JP 2010271630 A JP2010271630 A JP 2010271630A JP 2010271630 A JP2010271630 A JP 2010271630A JP 5641222 B2 JP5641222 B2 JP 5641222B2
Authority
JP
Japan
Prior art keywords
model
subject
information
trajectory information
trajectory
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2010271630A
Other languages
Japanese (ja)
Other versions
JP2012120579A (en
JP2012120579A5 (en
Inventor
安俊 滝沢
安俊 滝沢
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Seiko Epson Corp
Original Assignee
Seiko Epson Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Seiko Epson Corp filed Critical Seiko Epson Corp
Priority to JP2010271630A priority Critical patent/JP5641222B2/en
Publication of JP2012120579A publication Critical patent/JP2012120579A/en
Publication of JP2012120579A5 publication Critical patent/JP2012120579A5/en
Application granted granted Critical
Publication of JP5641222B2 publication Critical patent/JP5641222B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)

Description

本発明は、運動解析装置に関する。   The present invention relates to a motion analysis apparatus.

ゴルフ、テニス、野球などのスポーツでは、技術を向上させるためには無駄のない模範的な運動フォームを身につけることが重要である。そのため、多くの人はスポーツクラブ等でインストラクターのレッスンを受けているが、場所的・時間的な制約のためにレッスンを受けられない場合もある。そこで、例えば、特許文献1では、ゴルフレッスンの希望者が自己のスイングフォームをカメラで撮影した撮影データを通信回線を利用してサーバーに送信し、インストラクターがこの撮影データを解析して被験者にアドバイスを提供する手法が提案されている。この手法によれば、場所的・時間的な制約を受けることなく、インストラクターによるレッスンを受けることができる。   In sports such as golf, tennis, and baseball, it is important to wear an exemplary exercise form without waste to improve skills. For this reason, many people take instructor lessons at sports clubs, etc., but they may not be able to take lessons due to space and time constraints. Therefore, for example, in Patent Document 1, a person who wants a golf lesson transmits photographing data obtained by photographing his / her swing form with a camera to a server using a communication line, and an instructor analyzes the photographing data and advises a subject. A method for providing the above has been proposed. According to this method, a lesson by an instructor can be taken without being restricted by location and time.

特開2001−296799号公報JP 2001-296799 A

しかしながら、特許文献1の手法では、インストラクターの主観によるアドバイスが提供される傾向が強く、模範的なフォームとの定量的な違いを知ることは難しい。これに対して、カメラで撮影した運動フォームをあらかじめ用意した模範的なフォームと比較することも考えられるが、体格や運動速度が異なるため、やはり模範的なフォームとの違いを定量的に測定することは難しい。   However, in the method of Patent Document 1, there is a strong tendency to provide instructor's subjective advice, and it is difficult to know the quantitative difference from the exemplary form. On the other hand, it may be possible to compare an exercise form taken with a camera with an exemplary form prepared in advance. However, because the physique and exercise speed are different, the difference from the exemplary form is also measured quantitatively. It ’s difficult.

本発明は、以上のような問題点に鑑みてなされたものであり、本発明のいくつかの態様によれば、被験者の運動フォームとリファレンスの運動フォームとの差を定量的に解析可能な情報が得られる運動解析装置を提供することができる。   The present invention has been made in view of the above problems, and according to some aspects of the present invention, information capable of quantitatively analyzing the difference between the exercise form of the subject and the reference exercise form. Can be provided.

(1)本発明は、被験者に取り付けられる複数のモーションセンサーと、前記モーションセンサーの各々の出力データに基づく情報を取得するデータ取得部と、前記データ取得部が取得した情報に基づいて前記被験者をモデル化した被験者モデルの軌跡情報を生成する軌跡情報生成部と、リファレンスモデルの軌跡情報を記憶する軌跡情報記憶部と、を含み、前記軌跡情報生成部は、前記軌跡情報記憶部から前記リファレンスモデルの軌跡情報を読み出して、前記被験者モデルの軌跡情報および前記リファレンスモデルの軌跡情報を比較し、前記被験者モデルの軌跡情報及び前記リファレンスモデルの軌跡情報の少なくとも一方に対して、前記被験者モデルのサイズと前記リファレンスモデルのサイズとを一致させるサイズの正規化を行う、運動解析装置である。   (1) The present invention provides a plurality of motion sensors attached to a subject, a data acquisition unit that acquires information based on output data of each of the motion sensors, and the subject based on information acquired by the data acquisition unit. A trajectory information generation unit that generates trajectory information of the modeled subject model, and a trajectory information storage unit that stores trajectory information of the reference model, and the trajectory information generation unit receives the reference model from the trajectory information storage unit The trajectory information of the subject model is compared with the trajectory information of the subject model and the trajectory information of the reference model, and the size of the subject model is compared with at least one of the trajectory information of the subject model and the trajectory information of the reference model. Normalizing the size to match the size of the reference model, It is a dynamic analysis apparatus.

モーションセンサーの各々の出力データに基づく情報とは、モーションセンサーの各々の出力データそのものであってもよいし、モーションセンサーの各々の出力データに所与の演算処理を施して得られる情報であってもよい。   The information based on each output data of the motion sensor may be each output data of the motion sensor itself, or information obtained by performing a given arithmetic process on each output data of the motion sensor. Also good.

軌跡情報生成部は、被験者モデルの軌跡情報とリファレンスモデルの軌跡情報のいずれか一方のみに対してサイズの正規化を行ってもよいし、両方に対してサイズの正規化を行ってもよい。   The trajectory information generation unit may normalize the size for only one of the trajectory information of the subject model and the trajectory information of the reference model, or may normalize the size for both.

軌跡情報生成部は、被験者モデルの軌跡情報に対してサイズの正規化を行う場合、サイズの正規化を行いながら被験者モデルの軌跡情報を生成してもよいし、被験者モデルの軌跡情報を生成した後にサイズの正規化を行ってもよい。   The trajectory information generation unit may generate trajectory information of the subject model while normalizing the size when normalizing the size of the trajectory information of the subject model, or may generate trajectory information of the subject model. Size normalization may be performed later.

本発明によれば、サイズの正規化を行って、被験者モデルの軌跡情報とリファレンスモデルの軌跡情報を比較することで、被験者とリファレンスの運動フォームや運動速度の差を定量的に解析することができる。   According to the present invention, by performing size normalization and comparing the trajectory information of the subject model and the trajectory information of the reference model, it is possible to quantitatively analyze the difference between the exercise form and the exercise speed of the subject and the reference model. it can.

(2)この運動解析装置において、前記軌跡情報生成部は、前記被験者モデルの軌跡情報及び前記リファレンスモデルの軌跡情報の少なくとも一方に対して、解析対象の運動の前記被験者モデルの動作時間と前記リファレンスモデルの動作時間とを一致させる時間の正規化をさらに行うようにしてもよい。   (2) In the motion analysis apparatus, the trajectory information generation unit may determine the motion time of the subject model of the motion to be analyzed and the reference with respect to at least one of trajectory information of the subject model and trajectory information of the reference model. You may make it further normalize the time which makes the operating time of a model correspond.

このように、サイズの正規化と時間の正規化を行って、被験者モデルの軌跡情報とリファレンスモデルの軌跡情報を比較することで、被験者とリファレンスの運動フォームのわずかな差も定量的に解析することができる。   In this way, by normalizing the size and time, and comparing the trajectory information of the subject model with the trajectory information of the reference model, the slight difference between the subject and the reference exercise form is also analyzed quantitatively. be able to.

(3)本発明は、被験者に取り付けられる複数のモーションセンサーと、前記モーションセンサーの各々の出力データに基づく情報を取得するデータ取得部と、前記データ取得部が取得した情報に基づいて前記被験者をモデル化した被験者モデルの軌跡情報を生成する軌跡情報生成部と、リファレンスモデルの軌跡情報を記憶する軌跡情報記憶部と、を含み、前記軌跡情報生成部は、前記軌跡情報記憶部から前記リファレンスモデルの軌跡情報を読み出して、前記被験者モデルの軌跡情報および前記リファレンスモデルの軌跡情報を比較し、前記被験者モデルの軌跡情報及び前記リファレンスモデルの軌跡情報の少なくとも一方に対して、解析対象の運動の前記被験者モデルの動作時間と前記リファレンスモデルの動作時間とを一致させる時間の正規化を行う、運動解析装置である。   (3) The present invention provides a plurality of motion sensors attached to a subject, a data acquisition unit that acquires information based on output data of each of the motion sensors, and the subject based on information acquired by the data acquisition unit. A trajectory information generation unit that generates trajectory information of the modeled subject model, and a trajectory information storage unit that stores trajectory information of the reference model, and the trajectory information generation unit receives the reference model from the trajectory information storage unit The trajectory information of the subject model is compared with the trajectory information of the subject model and the trajectory information of the reference model, and at least one of the trajectory information of the subject model and the trajectory information of the reference model, When the operating time of the subject model matches the operating time of the reference model Performing normalization, a motion analysis device.

モーションセンサーの各々の出力データに基づく情報とは、モーションセンサーの各々の出力データそのものであってもよいし、モーションセンサーの各々の出力データに所与の演算処理を施して得られる情報であってもよい。   The information based on each output data of the motion sensor may be each output data of the motion sensor itself, or information obtained by performing a given arithmetic process on each output data of the motion sensor. Also good.

軌跡情報生成部は、被験者モデルの軌跡情報とリファレンスモデルの軌跡情報のいずれか一方のみに対して時間の正規化を行ってもよいし、両方に対して時間の正規化を行ってもよい。   The trajectory information generation unit may normalize time for only one of the trajectory information of the subject model and the trajectory information of the reference model, or may normalize time for both.

軌跡情報生成部は、被験者モデルの軌跡情報に対して時間の正規化を行う場合、時間の正規化を行いながら被験者モデルの軌跡情報を生成してもよいし、被験者モデルの軌跡情報を生成した後に時間の正規化を行ってもよい。   When the time information is normalized with respect to the trajectory information of the subject model, the trajectory information generation unit may generate the trajectory information of the subject model while performing time normalization, or the trajectory information of the subject model is generated. You may perform time normalization later.

本発明によれば、時間の正規化を行って、被験者モデルの軌跡情報とリファレンスモデルの軌跡情報を比較することで、被験者とリファレンスの運動フォームの差を定量的に解析することができる。   According to the present invention, by performing time normalization and comparing the trajectory information of the subject model with the trajectory information of the reference model, the difference between the exercise form of the subject and the reference can be quantitatively analyzed.

(4)この運動解析装置において、前記軌跡情報生成部は、前記時間の正規化において、前記解析対象の運動を複数の運動に分割し、前記複数の運動の各々の前記被験者モデルの動作時間と前記リファレンスモデルの動作時間とを一致させる処理を行うようにしてもよい。   (4) In this motion analysis apparatus, the trajectory information generation unit divides the motion to be analyzed into a plurality of motions in the time normalization, and the motion time of the subject model for each of the motions A process of matching the operation time of the reference model may be performed.

このようにすれば、分割した運動毎に運動フォームを比較することができるので、運動フォームの差をより詳細に解析することができる。   In this way, since the exercise forms can be compared for each divided exercise, the difference between the exercise forms can be analyzed in more detail.

(5)この運動解析装置は、前記正規化を行った後、前記被験者モデルの軌跡情報及び前記リファレンスモデルの軌跡情報の画像を生成して表示部に表示させる画像生成部をさらに含むようにしてもよい。   (5) The motion analysis apparatus may further include an image generation unit that generates an image of the trajectory information of the subject model and the trajectory information of the reference model after the normalization and displays the image on the display unit. .

このように、被験者の運動フォームとリファレンスの運動フォームを画像として表示させることで、両者の差が直感的にわかりやすくなる。   Thus, by displaying the subject's exercise form and the reference exercise form as images, the difference between the two becomes intuitively easy to understand.

(6)この運動解析装置は、辞書情報を記憶する辞書情報記憶部と、前記軌跡情報生成部が前記正規化を行った後、前記被験者モデルの軌跡情報及び前記リファレンスモデルの軌跡情報を比較する軌跡情報比較部と、前記軌跡情報比較部の比較結果に基づいて、前記辞書情報から少なくとも1つの情報を選択し、表示部に表示させる表示選択部と、をさらに含むようにしてもよい。   (6) The motion analysis apparatus compares the trajectory information of the subject model and the trajectory information of the reference model after the dictionary information storage unit that stores dictionary information and the trajectory information generation unit perform the normalization. A trajectory information comparison unit and a display selection unit that selects at least one piece of information from the dictionary information based on the comparison result of the trajectory information comparison unit and displays the information on the display unit may be further included.

このようにすれば、被験者モデルの軌跡とリファレンスモデルの軌跡の定量的な違いを別の表現に置き換えて表示させることができる。例えば、両者の定量的な違いから導かれる運動フォームの欠点などを指摘する文章を表示させるようにしてもよい。   In this way, the quantitative difference between the trajectory of the subject model and the trajectory of the reference model can be replaced with another expression and displayed. For example, you may make it display the text which points out the fault of the exercise | movement form etc. which are derived | led-out from the quantitative difference of both.

(7)この運動解析装置において、前記モーションセンサーは、運動用具に取り付けられ、前記モーションセンサーの出力データに基づいて、前記運動用具の運動解析情報を生成する用具情報生成部をさらに含むようにしてもよい。   (7) In this motion analysis apparatus, the motion sensor may be further attached to an exercise tool, and may further include a tool information generation unit that generates motion analysis information of the exercise tool based on output data of the motion sensor. .

このようにすれば、運動フォームと運動用具の情報(例えば、速度や軌道)との関係を解析することができる。   In this way, it is possible to analyze the relationship between the exercise form and the exercise tool information (for example, speed and trajectory).

(8)この運動解析装置において、前記モーションセンサーの少なくとも1つは、多軸加速度センサーと多軸角速度センサーとを含むようにしてもよい。   (8) In this motion analysis apparatus, at least one of the motion sensors may include a multi-axis acceleration sensor and a multi-axis angular velocity sensor.

本実施形態の運動解析装置の構成を示す図。The figure which shows the structure of the motion analysis apparatus of this embodiment. 処理部の全体処理のフローチャート図。The flowchart figure of the whole process of a process part. モーションセンサーの取り付け例を示す図。The figure which shows the example of attachment of a motion sensor. 人体モデルの一例を示す図。The figure which shows an example of a human body model. 軌跡データの時間の正規化処理について説明するための図。The figure for demonstrating the normalization process of the time of locus | trajectory data. 軌跡データの時間の正規化処理について説明するための図。The figure for demonstrating the normalization process of the time of locus | trajectory data. 軌跡データの時間の正規化処理のフローチャート図。The flowchart figure of the normalization process of the time of locus | trajectory data. 軌跡データの時間の正規化処理について説明するための図。The figure for demonstrating the normalization process of the time of locus | trajectory data. 軌跡データのサイズの正規化処理のフローチャート図。The flowchart figure of the normalization process of the size of locus | trajectory data. 軌跡データのサイズの正規化処理について説明するための図。The figure for demonstrating the normalization process of the size of locus | trajectory data. 軌跡データの比較処理について説明するための図。The figure for demonstrating the comparison process of locus | trajectory data. 表示部の表示画面の一例を示す図。The figure which shows an example of the display screen of a display part. 表示部の表示画面の一例を示す図。The figure which shows an example of the display screen of a display part.

以下、本発明の好適な実施形態について図面を用いて詳細に説明する。なお、以下に説明する実施の形態は、特許請求の範囲に記載された本発明の内容を不当に限定するものではない。また以下で説明される構成の全てが本発明の必須構成要件であるとは限らない。   DESCRIPTION OF EMBODIMENTS Hereinafter, preferred embodiments of the present invention will be described in detail with reference to the drawings. The embodiments described below do not unduly limit the contents of the present invention described in the claims. Also, not all of the configurations described below are essential constituent requirements of the present invention.

1.運動解析装置の構成
図1は、本実施形態の運動解析装置の構成を示す図である。
1. Configuration of Motion Analysis Device FIG. 1 is a diagram illustrating a configuration of a motion analysis device of the present embodiment.

本実施形態の運動解析装置1は、人体装着ユニット100と処理・制御ユニット200を含んで構成され、被験者の運動を解析する。被験者があらかじめ決められた運動を行うと、運動解析装置1は、被験者の運動フォームを取得してリファレンスの運動フォームとの差を解析する。   The motion analysis apparatus 1 of the present embodiment includes a human body mounting unit 100 and a processing / control unit 200, and analyzes the motion of a subject. When the subject performs a predetermined exercise, the exercise analysis apparatus 1 acquires the exercise form of the subject and analyzes the difference from the reference exercise form.

人体装着ユニット100は、複数のモーションセンサー10と同期部20を含んで構成されており、被験者に装着される。   The human body wearing unit 100 includes a plurality of motion sensors 10 and a synchronization unit 20 and is worn by a subject.

モーションセンサー10は、例えば、3軸加速度センサー12と3軸ジャイロセンサー(角速度センサー)14を含み、3軸(x軸、y軸、z軸)方向の加速度と3軸(x軸、y軸、z軸)方向の角速度を検出することができる。なお、検出軸は3軸以上あってもよい。モーションセンサー10は、被験者の体の肩、腰、肘などの部位に装着される。被験者が装着するモーションセンサー10の数やセンサー10の装着部位は、要求される運動解析の精度や解析内容に応じて任意に決めることが可能である。モーションセンサー10には、加速度や角速度の補正機能(バイアス補正や温度補正などの機能)とカルマンフィルターなどによりxyz座標系での速度や位置の計算を行う機能が搭載されていてもよい。   The motion sensor 10 includes, for example, a three-axis acceleration sensor 12 and a three-axis gyro sensor (angular velocity sensor) 14, and acceleration in the three-axis (x-axis, y-axis, z-axis) direction and three-axis (x-axis, y-axis, The angular velocity in the (z-axis) direction can be detected. There may be three or more detection axes. The motion sensor 10 is worn on the subject's body, such as the shoulder, waist, and elbow. The number of motion sensors 10 worn by the subject and the site where the sensors 10 are attached can be arbitrarily determined according to the required accuracy of motion analysis and the analysis content. The motion sensor 10 may be equipped with a function for calculating speed and position in the xyz coordinate system by a function for correcting acceleration and angular velocity (functions such as bias correction and temperature correction) and a Kalman filter.

各モーションセンサー10から同期部20に、各モーションセンサー10の加速度、角速度、速度、位置の情報などが無線通信または有線通信で送られる。この加速度、角速度、位置の情報などは、同期部20から各モーションセンサー10に送られる時刻情報に同期して送られる。   Information of acceleration, angular velocity, speed, position, etc. of each motion sensor 10 is transmitted from each motion sensor 10 to the synchronization unit 20 by wireless communication or wired communication. The acceleration, angular velocity, position information, and the like are sent in synchronization with time information sent from the synchronization unit 20 to each motion sensor 10.

同期部20は、各モーションセンサー10から受信したデータを時刻情報などと組合せたパケットにして処理・制御ユニット200に送る。なお、加速度や角速度の補正機能(バイアス補正や温度補正などの機能)とカルマンフィルターなどにより速度や位置の計算を行う機能を、モーションセンサー10の代わりに同期部20に搭載してもよい。   The synchronization unit 20 sends the data received from each motion sensor 10 to the processing / control unit 200 in a packet combined with time information and the like. It should be noted that a function for calculating speed and position by a function for correcting acceleration and angular velocity (functions such as bias correction and temperature correction) and a Kalman filter may be mounted on the synchronization unit 20 instead of the motion sensor 10.

運動用具300を用いて運動を解析する場合には、さらに、運動用具300にモーションセンサー10を組み込んでもよい。これにより、運動用具300の位置情報などを人体装着ユニット100の同期部20に送ることができる。運動用具300としては、例えば、野球のボールやバット、テニスのボールやラケット、ゴルフのボールやクラブなど、運動の種類に応じて様々なものが考えられる。   When analyzing exercise using the exercise tool 300, the motion sensor 10 may be further incorporated into the exercise tool 300. Thereby, the position information of the exercise equipment 300 can be sent to the synchronization unit 20 of the human body wearing unit 100. As the exercise equipment 300, various things can be considered according to the type of exercise, such as a baseball ball and bat, a tennis ball and racket, and a golf ball and club.

人体装着ユニット100と処理・制御ユニット200とは無線または有線で接続されている。処理・制御ユニット200はパーソナルコンピューター(PC)またはスマートフォンのような汎用情報処理機器により実現することができる。処理・制御ユニット200がPCの場合は無線で接続するほうが使い易い。一方、処理・制御ユニット200がスマートフォンなどの携帯機器の場合にはUSBなどの有線デバイスで接続することも可能である。   The human body mounting unit 100 and the processing / control unit 200 are connected to each other wirelessly or by wire. The processing / control unit 200 can be realized by a general-purpose information processing device such as a personal computer (PC) or a smartphone. When the processing / control unit 200 is a PC, it is easier to use a wireless connection. On the other hand, when the processing / control unit 200 is a portable device such as a smartphone, it can be connected by a wired device such as a USB.

処理・制御ユニット200は、処理部30、通信部40、操作部50、記憶部60、表示部70を含んで構成されている。   The processing / control unit 200 includes a processing unit 30, a communication unit 40, an operation unit 50, a storage unit 60, and a display unit 70.

通信部40は、人体装着ユニット100の同期部20から送信されたパケットデータを受信し、処理部30に送る処理を行う。   The communication unit 40 performs processing to receive the packet data transmitted from the synchronization unit 20 of the human body wearing unit 100 and send it to the processing unit 30.

操作部50は、ユーザーからの操作データを取得し、処理部30に送る処理を行う。操作部50は、例えば、タッチパネル型ディスプレイ、ボタン、キー、マイクなどである。   The operation unit 50 performs a process of acquiring operation data from the user and sending it to the processing unit 30. The operation unit 50 is, for example, a touch panel display, buttons, keys, a microphone, and the like.

記憶部60は、処理部30が各種の計算処理や制御処理を行うためのプログラムや、アプリケーション機能を実現するための各種プログラムやデータ等を記憶している。また、記憶部60は、処理部30の作業領域としても用いられ、操作部50から入力されたデータ、処理部30が各種プログラムに従って実行した演算結果等を一時的に記憶する。   The storage unit 60 stores programs for the processing unit 30 to perform various calculation processes and control processes, various programs and data for realizing application functions, and the like. The storage unit 60 is also used as a work area of the processing unit 30, and temporarily stores data input from the operation unit 50, calculation results executed by the processing unit 30 according to various programs, and the like.

特に本実施形態の記憶部60は、軌跡情報記憶部62を含む。軌跡情報記憶部62は、リファレンスモデルの軌跡情報(軌跡データ)を記憶する。リファレンスモデルの軌跡情報は、例えば、プロスポーツ選手から採取した模範となる運動フォームの軌跡情報であってもよいし、被験者の過去の好調時の運動フォームの軌跡情報であってもよい。処理部30の処理により生成された軌跡情報のうち、被験者の好調時の運動フォームの軌跡データなど長期的に保存しておきたいものは軌跡情報記憶部62に記憶(記録)される。なお、必要に応じて、重要な軌跡情報(例えば、プロスポーツ選手のデータなど著作権が絡むような軌跡情報)には暗号化をかけるようにしてもよい。   In particular, the storage unit 60 of the present embodiment includes a trajectory information storage unit 62. The trajectory information storage unit 62 stores trajectory information (trajectory data) of the reference model. The trajectory information of the reference model may be, for example, trajectory information of an exercise form as an example collected from a professional sports player, or may be trajectory information of an exercise form when the subject has performed well in the past. Of the trajectory information generated by the processing of the processing unit 30, what is desired to be stored for a long time, such as trajectory data of the exercise form when the subject is in good condition, is stored (recorded) in the trajectory information storage unit 62. If necessary, important trajectory information (for example, trajectory information that involves copyright such as professional athlete data) may be encrypted.

また、本実施形態の記憶部60は、辞書情報記憶部64を含む。辞書情報記憶部64は、被験者モデルの軌跡情報とリファレンスモデルの軌跡情報との差の情報と複数の表現との対応関係を定義する辞書情報を記憶する。   The storage unit 60 of the present embodiment includes a dictionary information storage unit 64. The dictionary information storage unit 64 stores dictionary information that defines the correspondence between the information on the difference between the trajectory information of the subject model and the trajectory information of the reference model and a plurality of expressions.

表示部70は、処理部30の処理結果を文字やグラフ、その他の画像として表示するものである。表示部70は、例えば、CRT、LCD、タッチパネル型ディスプレイ、HMD(ヘッドマウントディスプレイ)などである。なお、1つのタッチパネル型ディスプレイで操作部50と表示部70の機能を実現するようにしてもよい。   The display unit 70 displays the processing result of the processing unit 30 as characters, graphs, or other images. The display unit 70 is, for example, a CRT, LCD, touch panel display, HMD (head mounted display), or the like. In addition, you may make it implement | achieve the function of the operation part 50 and the display part 70 with one touchscreen type display.

処理部30は、記憶部60に記憶されているプログラムに従って、同期部20から通信部40を介して受信したデータに対する各種の計算処理や、各種の制御処理(表示部70に対する表示制御等)を行う。処理部30は、例えばマイクロプロセッサーにより実現できる。   The processing unit 30 performs various calculation processes on the data received from the synchronization unit 20 via the communication unit 40 and various control processes (display control for the display unit 70, etc.) according to the program stored in the storage unit 60. Do. The processing unit 30 can be realized by a microprocessor, for example.

特に、本実施形態の処理部30は、データ取得部31、軌跡情報生成部32、画像生成部33、軌跡情報比較部34、表示選択部35、用具情報生成部36を含む。なお、これらの一部を省略する構成としてもよい。   In particular, the processing unit 30 of the present embodiment includes a data acquisition unit 31, a trajectory information generation unit 32, an image generation unit 33, a trajectory information comparison unit 34, a display selection unit 35, and a tool information generation unit 36. Note that some of these may be omitted.

データ取得部31は、モーションセンサー10の各々の出力データに基づく情報を継続して取得する処理を行う。   The data acquisition unit 31 performs a process of continuously acquiring information based on each output data of the motion sensor 10.

軌跡情報生成部32は、データ取得部31が取得した情報に基づいてモーションセンサー10の各々の位置を特定し、被験者をモデル化した被験者モデルの軌跡情報を生成する処理を行う。軌跡情報生成部32は、被験者モデルの軌跡情報及びリファレンスモデルの軌跡情報の少なくとも一方に対して、被験者モデルのサイズとリファレンスモデルのサイズとを一致させるサイズの正規化を行う。あるいは、軌跡情報生成部32は、被験者モデルの軌跡情報及びリファレンスモデルの軌跡情報の少なくとも一方に対して、解析対象の運動に対応する被験者モデルの動作の時間とリファレンスモデルの動作の時間とを一致させる時間の正規化を行う。また、軌跡情報生成部32は、被験者モデルの軌跡情報及びリファレンスモデルの軌跡情報の少なくとも一方に対してサイズの正規化を行うとともに、被験者モデルの軌跡情報及びリファレンスモデルの軌跡情報の少なくとも一方に対して時間の正規化を行うようにしてもよい。   The trajectory information generation unit 32 performs a process of identifying each position of the motion sensor 10 based on the information acquired by the data acquisition unit 31 and generating trajectory information of a subject model that models the subject. The trajectory information generation unit 32 normalizes the size of the subject model and the reference model so as to match at least one of the trajectory information of the subject model and the trajectory information of the reference model. Alternatively, the trajectory information generation unit 32 matches the time of operation of the subject model corresponding to the motion to be analyzed and the time of operation of the reference model for at least one of the trajectory information of the subject model and the trajectory information of the reference model. Normalize the time to be performed. Further, the trajectory information generation unit 32 normalizes the size of at least one of the trajectory information of the subject model and the trajectory information of the reference model, and at least one of the trajectory information of the subject model and the trajectory information of the reference model. The time may be normalized.

また、軌跡情報生成部32は、時間の正規化において、解析対象の運動を分割した複数の運動の各々に対応する被験者モデルの動作の時間とリファレンスモデルの動作の時間とをさらに一致させる処理を行うようにしてもよい。   Further, the trajectory information generation unit 32 performs a process of further matching the time of the motion of the subject model corresponding to each of a plurality of motions obtained by dividing the motion to be analyzed with the time of motion of the reference model in time normalization. You may make it perform.

さらに、軌跡情報生成部32は、一部のモーションセンサー10の位置の情報を用いずに、他のモーションセンサー10の位置の情報に基づいて被験者モデルの仮想的な軌跡情報をさらに生成するようにしてもよい。   Furthermore, the trajectory information generation unit 32 further generates virtual trajectory information of the subject model based on the information on the positions of the other motion sensors 10 without using the information on the positions of some of the motion sensors 10. May be.

画像生成部33は、軌跡情報生成部32が時間の正規化及びサイズの正規化の少なくとも一方を行った後、被験者モデルの軌跡情報及びリファレンスモデルの軌跡情報に基づいて、被験者モデルに対応づけられる画像及びリファレンスモデルに対応づけられる画像を生成して表示部に表示させる処理を行う。   The image generation unit 33 is associated with the subject model based on the trajectory information of the subject model and the trajectory information of the reference model after the trajectory information generation unit 32 performs at least one of time normalization and size normalization. A process of generating an image associated with the image and the reference model and displaying the image on the display unit is performed.

軌跡情報比較部34は、軌跡情報生成部32が時間の正規化及びサイズの正規化の少なくとも一方を行った後、被験者モデルの軌跡情報及びリファレンスモデルの軌跡情報を比較する処理を行う。   The trajectory information comparison unit 34 performs a process of comparing the trajectory information of the subject model and the trajectory information of the reference model after the trajectory information generation unit 32 performs at least one of time normalization and size normalization.

表示選択部35は、軌跡情報比較部34の比較結果に基づいて、辞書情報記憶部64に記憶される辞書情報で定義された複数の表現から少なくとも1つの表現を選択し、表示部70に表示させる処理を行う。   The display selection unit 35 selects at least one expression from a plurality of expressions defined by the dictionary information stored in the dictionary information storage unit 64 based on the comparison result of the trajectory information comparison unit 34 and displays it on the display unit 70. To perform the process.

用具情報生成部36は、データ取得部31が取得した、運動用具300に取り付けられるモーションセンサー10の出力データに基づく情報に基づいて、運動用具300の運動に関する解析情報を生成する処理を行う。   The tool information generation unit 36 performs a process of generating analysis information related to the exercise of the exercise tool 300 based on the information acquired by the data acquisition unit 31 and based on the output data of the motion sensor 10 attached to the exercise tool 300.

2.運動解析装置の処理
[全体処理]
本実施形態では、ユーザーは、操作部50を操作することでモード1〜モード4の4つの動作モードのいずれか1つを選択することができ、処理部30は、選択された動作モードに対応する処理を行う。具体的には、記憶部60にモード1〜モード4の各処理を行うためのプログラムが格納されており、処理部30がこのプログラムを実行することで各モードの処理を行う。
2. Processing of motion analyzer [Overall processing]
In the present embodiment, the user can select any one of four operation modes, Mode 1 to Mode 4, by operating the operation unit 50, and the processing unit 30 corresponds to the selected operation mode. Perform the process. Specifically, a program for performing each process of mode 1 to mode 4 is stored in the storage unit 60, and the processing unit 30 performs the process of each mode by executing this program.

モード1は、各モーションセンサー10からのデータを取得し、所定のフォーマットの軌跡データを生成して記憶部60に記憶するモードである。モード2は、モード1で記憶部60に記憶した軌跡データ又は当該軌跡データをフォーマット変換した軌跡データを、リファレンスの軌跡データと比較するモードである。モード3は、被験者の運動フォームやリファレンスの運動フォームの3D画像を表示部70に表示するモードである。モード4は、被験者に取り付けるモーションセンサー10の最適数や最適な取り付け部位を決定するための支援情報を提供するモードである。   Mode 1 is a mode in which data from each motion sensor 10 is acquired, locus data in a predetermined format is generated, and stored in the storage unit 60. Mode 2 is a mode in which the trajectory data stored in the storage unit 60 in mode 1 or the trajectory data obtained by format conversion of the trajectory data is compared with reference trajectory data. Mode 3 is a mode in which a 3D image of the exercise form of the subject or the reference exercise form is displayed on the display unit 70. Mode 4 is a mode for providing support information for determining the optimum number of motion sensors 10 to be attached to the subject and the optimum attachment site.

図2は、処理部30の全体処理のフローチャート図である。ユーザーにより、モード1が選択された場合(ステップS10のY)、処理部30は、人体装着ユニット100の同期部20からデータを取得する処理を行った後(ステップS12)、被験者モデルの軌跡データの生成及び正規化の処理を行う(ステップS14)。   FIG. 2 is a flowchart of the overall processing of the processing unit 30. When mode 1 is selected by the user (Y in step S10), the processing unit 30 performs a process of acquiring data from the synchronization unit 20 of the human body wearing unit 100 (step S12), and then the trajectory data of the subject model. Is generated and normalized (step S14).

また、ユーザーにより、モード2が選択された場合(ステップS20のY)、処理部30は、ステップS14で生成された被験者モデルの軌跡データとリファレンスモデルの軌跡データとを比較する処理を行い(ステップS22)、必要に応じて辞書情報から適当な表記を選択して表示部70に表示させる処理を行う(ステップS24)。   When mode 2 is selected by the user (Y in Step S20), the processing unit 30 performs a process of comparing the trajectory data of the subject model generated in Step S14 with the trajectory data of the reference model (Step S20). S22) If necessary, an appropriate notation is selected from the dictionary information and displayed on the display unit 70 (step S24).

また、ユーザーにより、モード3が選択された場合(ステップS30のY)、処理部30は、ステップS14で生成された被験者モデルの軌跡データやリファレンスモデルの軌跡データから運動フォームの3D画像を生成し、表示部70に表示させる処理を行う(ステップS32)。   When the mode 3 is selected by the user (Y in step S30), the processing unit 30 generates a 3D image of the exercise form from the trajectory data of the subject model and the trajectory data of the reference model generated in step S14. Then, a process of displaying on the display unit 70 is performed (step S32).

また、ユーザーにより、モード4が選択された場合(ステップS40のY)、処理部30は、所定のモーションセンサー10が不要か否かを解析する処理を行う(ステップS42)。   If mode 4 is selected by the user (Y in step S40), the processing unit 30 performs a process of analyzing whether or not the predetermined motion sensor 10 is unnecessary (step S42).

そして、被験者の運動解析処理を終了(ステップS50のY)するまで、処理部30は、ユーザーが選択したモードに応じた処理を繰り返し行う。   And the process part 30 performs the process according to the mode which the user selected repeatedly until a test subject's exercise | movement analysis process is complete | finished (Y of step S50).

[モード1の処理]
例えば、野球の投球フォームを解析する場合、モーションセンサー10は、図3に示すように、被験者2の頭(帽子)、首の後ろ、両肩、両肘、両手首、腰の後ろ、両足の付け根、両膝、両足首などに取り付けられる。さらに、ボール3(運動用具300の一例)の内部にモーションセンサー10を内蔵させてもよい。
[Mode 1 processing]
For example, when analyzing a baseball throwing form, as shown in FIG. 3, the motion sensor 10 detects the head (hat), the back of the neck, both shoulders, both elbows, both wrists, the back of the waist, and the legs of the subject 2 as shown in FIG. It can be attached to the base, both knees, both ankles, etc. Further, the motion sensor 10 may be built in the ball 3 (an example of the exercise device 300).

モード1では、処理部30は、被験者2が解析対象の運動(例えば投球)を開始してから終了するまでの間、人体装着ユニット100の同期部20から一定周期で位置情報などのデータを取得し、取得したデータから被験者モデルの軌跡を表す軌跡データを生成する。   In mode 1, the processing unit 30 acquires data such as position information from the synchronization unit 20 of the human body mounting unit 100 at a constant period from when the subject 2 starts a motion to be analyzed (for example, pitching) to when it ends. Then, trajectory data representing the trajectory of the subject model is generated from the acquired data.

本実施形態では、図4に示すように、被験者モデルとして、被験者2の頭部や関節部に対応づけてノードを設定し、所定のノード同士を線で結んだ人体モデル4を定義する。そして、処理部30は、被験者2の運動に伴って変化する各モーションセンサー10のxyz座標系の位置から被験者モデル(人体モデル4)の各ノードのXYZ座標系の位置を計算し、被験者モデル(人体モデル4)の軌跡データを生成する。X軸、Y軸、Z軸は、リファレンスモデルの軌跡データで定義されている3軸と方向を一致させる。   In this embodiment, as shown in FIG. 4, a human body model 4 is defined as a subject model in which nodes are set in association with the head and joints of the subject 2 and predetermined nodes are connected by lines. And the process part 30 calculates the position of the XYZ coordinate system of each node of a test subject model (human body model 4) from the position of the xyz coordinate system of each motion sensor 10 which changes with the motion of the test subject 2, and the test subject model ( The trajectory data of the human body model 4) is generated. The X axis, the Y axis, and the Z axis have the same direction as the three axes defined by the trajectory data of the reference model.

例えば、図3に示したように、被験者2の頭部と各関節部にモーションセンサー10が取り付けられている場合、各モーションセンサー10と人体モデル4の各ノードが1対1に対応している。すなわち、ノードN1〜N15は、被験者2の頭(帽子)、首の後ろ、右肩、右肘、右手首、左肩、左肘、左手首、腰の後ろ、右足の付け根、右膝、右足首、左足の付け根、左膝、左足首の15箇所に取り付けたモーションセンサー10にそれぞれ対応している。このような場合は、各モーションセンサー10の位置に応じて、それぞれ対応するノードの位置を計算すればよい。   For example, as shown in FIG. 3, when the motion sensor 10 is attached to the head of the subject 2 and each joint, each node of the motion sensor 10 and the human body model 4 has a one-to-one correspondence. . That is, the nodes N1 to N15 are the head (hat), the back of the neck, the right shoulder, the right elbow, the right wrist, the left shoulder, the left elbow, the left wrist, the back of the waist, the base of the right foot, the right knee, and the right ankle. , Corresponding to the motion sensor 10 attached to 15 points of the base of the left foot, the left knee, and the left ankle. In such a case, the position of the corresponding node may be calculated according to the position of each motion sensor 10.

一方、頭部や一部の関節部にモーションセンサー10が取り付けられていない場合は、仮想的にセンサーが取り付けられているものとして、この仮想的に取り付けられたセンサー(以下、「仮想センサー」という)に対応するノードの位置を、インバースキネマティックス等の手法を用いて他のモーションセンサー10に対応するノードの位置から計算によって求める。例えば、肩と手首と肘にそれぞれモーションセンサー10を取り付けるより、肩と手首にだけモーションセンサー10を取り付け、肩と手首に取り付けたモーションセンサー10の動きから肘の動きを計算すれば、モーションセンサー10の数を減らし、運動解析装置1の使い勝手を良くすることができる。なお、仮想センサーの位置を計算するためには、人体の動作をモデル化する必要がある。例えば、人体がリジットな多関節構造になっていると仮定し、肩と肘と手首の間の長さは常に一定であり骨は変形しないとする。同様に、股関節から膝と足首の距離は一定で骨は変形せず、関節の可動範囲は上限があるなどと仮定する。この仮定のもとに、複数の人間の動記録から人体の動作をモデル化して仮想センサーの位置の計算に使用する。   On the other hand, when the motion sensor 10 is not attached to the head or some joints, it is assumed that the sensor is virtually attached, and this virtually attached sensor (hereinafter referred to as “virtual sensor”). The position of the node corresponding to) is calculated from the position of the node corresponding to the other motion sensor 10 using a technique such as inverse kinematics. For example, if the motion sensor 10 is attached only to the shoulder and wrist, and the motion of the elbow is calculated from the motion of the motion sensor 10 attached to the shoulder and wrist, rather than attaching the motion sensor 10 to the shoulder, wrist and elbow, respectively. The usability of the motion analysis apparatus 1 can be improved. In order to calculate the position of the virtual sensor, it is necessary to model the movement of the human body. For example, assuming that the human body has a rigid articulated structure, the length between the shoulder, elbow and wrist is always constant and the bone does not deform. Similarly, it is assumed that the distance from the hip joint to the knee and ankle is constant, the bone is not deformed, and the movable range of the joint has an upper limit. Based on this assumption, the movement of the human body is modeled from a plurality of human motion records and used to calculate the position of the virtual sensor.

また、処理部30は、生成した軌跡データを記憶部60(軌跡情報記憶部62)に保存する処理を行う。本実施形態では、保存する軌跡データのフォーマットは3種類あり、それぞれのフォーマットでの保存の有無を選択可能になっている。フォーマット1の軌跡データは、同期部20から取得した各モーションセンサー10のxyz座標系の位置から計算されるXYZ座標系の位置を時系列に並べた軌跡データである。フォーマット2のデータは、サイズの正規化を行った(時間の正規化は行わない)軌跡データである。フォーマット3のデータは、サイズ及び時間の正規化を行った軌跡データである。   Further, the processing unit 30 performs processing for saving the generated trajectory data in the storage unit 60 (trajectory information storage unit 62). In the present embodiment, there are three types of trajectory data formats to be saved, and whether or not to save in each format can be selected. The trajectory data of format 1 is trajectory data in which the positions of the XYZ coordinate system calculated from the positions of the xyz coordinate system of each motion sensor 10 acquired from the synchronization unit 20 are arranged in time series. The data of format 2 is trajectory data that has been subjected to size normalization (time normalization is not performed). The data of format 3 is trajectory data obtained by normalizing the size and time.

フォーマット1、フォーマット2、フォーマット3の一部又は全部の軌跡データを生成して保存してもよい。あるいは、軌跡データをフォーマット1でのみ保存し、その表示をする時や、リファレンスの軌跡データと比較する時にフォーマット2またはフォーマット3の軌跡データを生成してもよい。   A part or all of the trajectory data of format 1, format 2, and format 3 may be generated and stored. Alternatively, the trajectory data may be stored only in the format 1 and the trajectory data of the format 2 or the format 3 may be generated when the trajectory data is displayed or compared with the reference trajectory data.

フォーマット1の軌跡データは、被験者2の実際の運動フォームを3Dグラフィックソフトなどで見る場合に使用される。フォーマット1の軌跡データを使用することで、被験者2の実際の体格や運動速度を画面上で確認することができる。   The trajectory data of format 1 is used when viewing the actual motion form of the subject 2 with 3D graphic software or the like. By using the trajectory data of format 1, the actual physique and exercise speed of the subject 2 can be confirmed on the screen.

フォーマット2の軌跡データ(サイズを正規化した軌跡データ)は、被験者2の運動フォームとリファレンスの運動フォームの比較を容易にするために使用される。すなわち、リファレンスの軌跡データを取得した人と被験者2の体格が違う場合、そのままのサイズで比較すると運動フォームの比較が困難なので、比較を容易にするためにサイズの正規化が行われる。このフォーマット2の軌跡データは、時間に対しては正規化されていないため、特に、運動フォームの時間軸上の情報(例えば運動速度の差の比較)が重要な場合に使用される。ただし、サイズが正規化されたリファレンスの軌跡データとフォーマット2の軌跡データを比較する場合、途中で両者の同期が取れなくなるのでフォームを詳細に比較する目的には向いていない。   The format 2 trajectory data (trajectory data normalized in size) is used to facilitate comparison between the exercise form of the subject 2 and the reference exercise form. That is, when the person who acquired the reference trajectory data is different from the physique of the subject 2, since it is difficult to compare the exercise forms when compared with the same size, the size is normalized to facilitate the comparison. Since the track data of the format 2 is not normalized with respect to time, it is used particularly when information on the time axis of the motion form (for example, comparison of motion speed difference) is important. However, when comparing the reference trajectory data with the normalized size and the trajectory data of the format 2, the two are not synchronized in the middle, so it is not suitable for the purpose of comparing the forms in detail.

フォーマット3の軌跡データ(サイズ及び時間を正規化した軌跡データ)は、被験者2の運動フォームとリファレンスの運動フォームを詳細に比較するために使用される。   Format 3 trajectory data (size and time normalized trajectory data) is used to compare the exercise form of the subject 2 with the reference exercise form in detail.

(軌跡データの時間の正規化)
次に、軌跡データの時間を正規化する手法の一例について説明する。
(Normalization of trajectory data time)
Next, an example of a method for normalizing the time of the trajectory data will be described.

まず、運動の開始点、終了点および一連の運動の中で姿勢が大きく変わるなどの1又は複数の特徴点(基準点)を定義する。つまり、開始点、基準点、終了点を定義することで、解析対象の運動を複数の運動に分割する。   First, one or a plurality of feature points (reference points) such as a start point, an end point, and a posture that change greatly in a series of motions are defined. That is, by defining a start point, a reference point, and an end point, the motion to be analyzed is divided into a plurality of motions.

例えば、野球の投球フォームを解析する場合であれば、図5(A)のように、被験者2が投球を始める前に静止した後腕が後方に動き始めた時点を運動の開始点、図5(D)のように、投球が行われ利き腕と同じ側の足が地面から離れ、再び接地した時点を終了点とする。また、例えば、図5(B)のように、腕をテイクバックして投球動作に移行し、利き腕と逆の足が接地した時点を1番目の基準点(基準点1)、図5(C)のように、被験者2の利き腕の指先からボール3が離れた時点を2番目の基準点(基準点2)とする。   For example, in the case of analyzing a baseball throwing form, as shown in FIG. 5 (A), the time when the subject 2 stops moving before starting to pitch and the rear arm starts to move backward is the starting point of the exercise. As shown in (D), the end point is when the pitch is performed and the foot on the same side as the dominant arm leaves the ground and touches again. Further, for example, as shown in FIG. 5B, when the arm is taken back to shift to the pitching motion and the foot opposite to the dominant arm touches down, the first reference point (reference point 1), FIG. ), The time when the ball 3 is separated from the fingertip of the subject's 2 dominant arm is defined as the second reference point (reference point 2).

また、例えば、野球の打撃フォームを解析する場合であれば、例えば、スイングを始める前に静止した後、テイクバックを始めた時点を開始点、フォロースルーが終了した時すなわちフォロースルーの速度が0になり逆方向に動き始めた時を終了点、前方の足が地面から離れ、再び接地した時点を1番目の基準点、バットにボールが当たった時点を2番目の基準点、のように決めればよい。   For example, in the case of analyzing a baseball batting form, for example, after starting to take a rest after starting a swing, the start point is the start point, and the follow-through speed is 0, that is, the follow-through speed is 0. The point when it starts moving in the opposite direction becomes the end point, the point when the front foot leaves the ground and touches again, the first reference point, the point when the ball hits the bat is determined as the second reference point That's fine.

運動の開始点、終了点、基準点は、処理部30が、モーションセンサー10の位置データに基づいて自動的に決定してもよいし、例えば、被験者モデルに対応するオブジェクトのアニメーション画像を表示部70に表示し、ユーザがそのアニメーション画像を見ながら適切なタイミングでスイッチを押すなどして手動で決定してもよい。   The starting point, ending point, and reference point of the exercise may be automatically determined by the processing unit 30 based on the position data of the motion sensor 10, for example, an animation image of an object corresponding to the subject model is displayed on the display unit 70, and the user may determine manually by pressing a switch at an appropriate timing while viewing the animation image.

そして、開始点、終了点、各基準点での人体モデル4の各ノードのXYZ座標系の位置座標を計算する。例えば、図6(A)〜図6(D)は、それぞれ図5(A)〜図5(D)に示した被験者2の状態に対応する人体モデル4の状態を示している。そして、開始点、基準点1、基準点2、終了点にそれぞれ対応づけて、図6(A)〜図6(D)の状態の人体モデル4の各ノードのXYZ座標系の位置座標を計算する。各モーションセンサー10と人体モデル4の各ノードが1対1に対応している場合は、開始点、終了点、基準点において、各モーションセンサー10が出力するxyz座標系の位置データをXYZ座標系へ座標変換を行うことで各ノードの位置座標を算出することができる。   Then, the position coordinates in the XYZ coordinate system of each node of the human body model 4 at the start point, the end point, and each reference point are calculated. For example, FIGS. 6A to 6D show states of the human body model 4 corresponding to the states of the subject 2 shown in FIGS. 5A to 5D, respectively. Then, the position coordinates in the XYZ coordinate system of each node of the human body model 4 in the states of FIGS. 6A to 6D are calculated in association with the start point, the reference point 1, the reference point 2, and the end point. To do. When each node of the motion sensor 10 and the human body model 4 has a one-to-one correspondence, the position data of the xyz coordinate system output by each motion sensor 10 at the start point, end point, and reference point is in the XYZ coordinate system. By performing the coordinate transformation, the position coordinates of each node can be calculated.

さらに、開始点から最初の基準点までの期間、隣り合う2つの基準点の間の期間、最後の基準点から終了点までの期間を、それぞれあらかじめ決められた任意の数の、時間が等間隔な期間に分割し、各分割点での人体モデル4の各ノードの位置座標を計算する。各モーションセンサー10は一定の周期で位置を検出しているので、必ずしも、分割点の時刻に対応する位置データがあるとは限らない。分割点の時刻に対応する位置データがあれば、各位置データに対してxyz座標系からXYZ座標系への座標変換を行うことで分割点での各ノードの位置座標を算出することができる。一方、分割点の時刻に対応する位置データが無い場合は、例えば、その時刻の前後の時刻に対応する位置データを用いて、補間計算により分割点の時刻に対応する位置データを生成する。そして、補間計算により生成された各位置データに対してxyz座標系からXYZ座標系への座標変換を行うことで分割点での各ノードの位置座標を算出することができる。   In addition, the period from the start point to the first reference point, the period between two adjacent reference points, and the period from the last reference point to the end point, each of a predetermined number of times are equally spaced The position coordinates of each node of the human body model 4 at each division point are calculated. Since each motion sensor 10 detects a position at a constant cycle, there is not always position data corresponding to the time of the dividing point. If there is position data corresponding to the time of the dividing point, the position coordinates of each node at the dividing point can be calculated by performing coordinate conversion from the xyz coordinate system to the XYZ coordinate system for each position data. On the other hand, if there is no position data corresponding to the time of the dividing point, for example, position data corresponding to the time of the dividing point is generated by interpolation calculation using position data corresponding to the time before and after that time. The position coordinates of each node at the division point can be calculated by performing coordinate conversion from the xyz coordinate system to the XYZ coordinate system for each position data generated by the interpolation calculation.

図7に、時間を正規化した軌跡データを生成する処理のフローチャートの一例を示す。なお、図7に示すフローチャートは、図2に示したフローチャートのステップS14の一部の処理のフローチャートの一例であり、このフローチャートの処理に先立って、同期部20から各モーションセンサー10のxyz座標系の位置データの取得処理(図2のステップS12の処理)は終了している。   FIG. 7 shows an example of a flowchart of processing for generating trajectory data in which time is normalized. The flowchart shown in FIG. 7 is an example of a flowchart of a part of the process of step S14 of the flowchart shown in FIG. 2, and prior to the process of this flowchart, the synchronization unit 20 sends the xyz coordinate system of each motion sensor 10 to each other. The position data acquisition process (step S12 in FIG. 2) has been completed.

まず、時刻tを0に設定するとともに変数kを0に設定し(ステップS100)、時刻t及びその近傍の時刻に取得したxyz座標系の位置データから時刻tが開始点か否かを判定する(ステップS102)。野球の投球フォームの解析の場合は、図5(A)に示した開始点か否かを、例えば、右肘に対応するノードN4や右手首に対応するノードN5の位置の時刻t近傍での変化量から判定することができる。   First, the time t is set to 0 and the variable k is set to 0 (step S100), and it is determined whether or not the time t is the start point from the position data of the xyz coordinate system acquired at the time t and its neighboring times. (Step S102). In the case of analysis of a baseball pitching form, whether or not it is the start point shown in FIG. 5A, for example, in the vicinity of time t at the position of the node N4 corresponding to the right elbow or the node N5 corresponding to the right wrist. It can be determined from the amount of change.

時刻tが開始点でない場合(ステップS104のN)、tを位置データの取得周期Δtだけ増やし(ステップS105)、時刻tが開始点か否かを再び判定する(ステップS102)。時刻tが開始点である場合(ステップS104のY)、開始点における各ノードのXYZ座標系の位置座標を算出する(ステップS106)。例えば、図8に示すように、あるノードNの実際の軌跡がAのような場合、開始点におけるノードNの位置pの座標を算出する。 If the time t is not the start point (N in step S104), t is increased by the position data acquisition period Δt (step S105), and it is determined again whether the time t is the start point (step S102). When the time t is the start point (Y in step S104), the position coordinates of each node at the start point in the XYZ coordinate system are calculated (step S106). For example, as shown in FIG. 8, when the actual trajectory of a certain node N is A, the coordinates of the position p 0 of the node N at the start point are calculated.

次に、配列T(k)にtを保持し、時刻tをΔt増やし、変数kを1増やす(ステップS108)。T(0)には開始点の時刻が保持される。   Next, t is held in the array T (k), the time t is increased by Δt, and the variable k is increased by 1 (step S108). T (0) holds the time of the start point.

基準点が定義されている場合(ステップS110のY)、時刻t及びその近傍の時刻に取得したxyz座標系の位置データから時刻tがk(=1)番目の基準点か否かを判定する(ステップS112)。投球フォームの解析の場合は、図5(B)に示した基準点1か否かを、例えば、左足首に対応するノードN15の位置の時刻t近傍での変化量から判定することができる。   When the reference point is defined (Y in step S110), it is determined whether or not the time t is the k (= 1) th reference point from the position data of the xyz coordinate system acquired at the time t and the nearby time. (Step S112). In the case of the pitch form analysis, whether or not the reference point 1 shown in FIG. 5B can be determined from the amount of change in the vicinity of time t of the position of the node N15 corresponding to the left ankle, for example.

時刻tがk(=1)番目の基準点でない場合(ステップS114のN)、tをΔtだけ増やし(ステップS115)、時刻tがk(=1)番目の基準点か否かを再び判定する(ステップS112)。時刻tがk(=1)番目の基準点である場合(ステップS114のY)、k(=1)番目の基準点における各ノードのXYZ座標系の位置座標を算出する(ステップS116)。図8の例では、基準点1におけるノードNの位置pの座標を算出する。 When the time t is not the k (= 1) th reference point (N in step S114), t is increased by Δt (step S115), and it is determined again whether the time t is the k (= 1) th reference point. (Step S112). When the time t is the k (= 1) th reference point (Y in step S114), the position coordinates of each node at the k (= 1) th reference point are calculated (step S116). In the example of FIG. 8, it calculates the position p 1 of the coordinates of the node N at the reference point 1.

次に、配列T(k)にtを保持し、時刻tをΔt増やし、変数kを1増やす(ステップS118)。基準点1が定義されている場合、T(1)には基準点1の時刻が保持される。   Next, t is held in the array T (k), the time t is increased by Δt, and the variable k is increased by 1 (step S118). When the reference point 1 is defined, the time of the reference point 1 is held in T (1).

そして、すべての基準点についての処理が終了(ステップS120のY)するまで、ステップS112〜S118の処理を繰り返す。例えば、2番目の基準点が定義されている場合、時刻t及びその近傍の時刻に取得したxyz座標系の位置データから時刻tがk(=2)番目の基準点か否かを判定する(ステップS112)。投球フォームの解析の場合は、図5(C)に示した基準点2か否かを、例えば、ボール3の位置と右手首に対応するノードN5の位置の距離の時刻t近傍での変化量から判定することができる。   And the process of step S112-S118 is repeated until the process about all the reference points is complete | finished (Y of step S120). For example, when the second reference point is defined, it is determined whether or not the time t is the k (= 2) th reference point from the position data of the xyz coordinate system acquired at the time t and the nearby time ( Step S112). In the case of the pitch form analysis, whether or not the reference point 2 shown in FIG. 5C is determined is, for example, the amount of change in the vicinity of time t of the distance between the position of the ball 3 and the position of the node N5 corresponding to the right wrist. It can be determined from.

時刻tがk(=2)番目の基準点である場合(ステップS114のY)、k(=2)番目の基準点における各ノードのXYZ座標系の位置座標を算出する(ステップS116)。図8の例では、基準点2におけるノードNの位置pの座標を算出する。 When the time t is the k (= 2) th reference point (Y in Step S114), the position coordinates of the XYZ coordinate system of each node at the k (= 2) th reference point are calculated (Step S116). In the example of FIG. 8, it calculates the position p 2 of the coordinates of the node N at the reference point 2.

次に、配列T(k)にtを保持し、時刻tをΔt増やし、変数kを1増やす(ステップS118)。基準点2が定義されている場合、T(2)には基準点2の時刻が保持される。   Next, t is held in the array T (k), the time t is increased by Δt, and the variable k is increased by 1 (step S118). When the reference point 2 is defined, the time of the reference point 2 is held in T (2).

すべての基準点についての処理が終了した場合(ステップS120のY)、次に、時刻t及びその近傍の時刻に取得したxyz座標系の位置データから時刻tが終了点か否かを判定する(ステップS122)。投球フォームの解析の場合は、図5(D)に示した終了点か否かを、例えば、右膝に対応するノードN11や右足首に対応するノードN12の位置の時刻t近傍での変化量から判定することができる。   When the processing for all the reference points is completed (Y in step S120), it is next determined whether or not the time t is the end point from the position data of the xyz coordinate system acquired at the time t and the time in the vicinity thereof (step S120). Step S122). In the case of the pitch form analysis, whether or not it is the end point shown in FIG. 5D, for example, the amount of change in the vicinity of time t of the position of the node N11 corresponding to the right knee or the node N12 corresponding to the right ankle. It can be determined from.

時刻tが終了点でない場合(ステップS124のN)、tをΔtだけ増やし(ステップS125)、時刻tが終了点か否かを再び判定する(ステップS122)。時刻tが終了点である場合(ステップS124のY)、終了点における各ノードのXYZ座標系の位置座標を算出する(ステップS126)。図8の例では、終了点におけるノードNの位置pの座標を算出する。 If time t is not the end point (N in step S124), t is increased by Δt (step S125), and it is determined again whether time t is the end point (step S122). If the time t is the end point (Y in step S124), the position coordinates of each node at the end point in the XYZ coordinate system are calculated (step S126). In the example of FIG. 8, and calculates the coordinates of the position p 3 of the node N at the end point.

次に、配列T(k)にtを保持し、変数Mにkを保持し、変数kを0にリセットする(ステップS128)。例えば、基準点1、2が定義されている場合はT(3)に終了点の時刻が保持され、基準点が定義されていない場合はT(1)に終了点の時刻が保持される。   Next, t is held in the array T (k), k is held in the variable M, and the variable k is reset to 0 (step S128). For example, when the reference points 1 and 2 are defined, the end point time is held at T (3), and when the reference point is not defined, the end point time is held at T (1).

次に、T(k)とT(k+1)の間をn(k+1)の期間に分割し、n(k+1)−1個の分割点における各ノードのXYZ座標系の位置座標を算出する(ステップS130)。図8の例では、開始点と基準点1をn1個の期間に分割し、n1−1個の分割点におけるノードNの位置p(0,1),p(0,2),p(0,3),・・・,p(0,n1−1)の各座標を算出する。 Next, the interval between T (k) and T (k + 1) is divided into n (k + 1) periods, and the position coordinates in the XYZ coordinate system of each node at n (k + 1) −1 division points are calculated (step). S130). In the example of FIG. 8, the start point and the reference point 1 are divided into n1 periods, and the positions p (0,1) , p (0,2) , p (0 ) of the node N at the n1-1 division points. , 3) ,..., P (0, n1-1) coordinates are calculated.

次に、変数kを1増やし(ステップS132)、k=Mでない場合(ステップS134のN)、ステップS130とS132の処理を再び行う。図8の例では、k=1の時、基準点1と基準点2をn2個の期間に分割し、n2−1個の分割点におけるノードNの位置p(1,1),p(1,2),p(1,3),・・・,p(1,n2−1)の各座標を算出する。また、k=2の時、基準点2と終了点をn3個の期間に分割し、n3−1個の分割点におけるノードNの位置p(2,1),p(2,2),p(2,3),・・・,p(2,n3−1)の各座標を算出する。 Next, the variable k is incremented by 1 (step S132). If k = M is not satisfied (N in step S134), the processes of steps S130 and S132 are performed again. In the example of FIG. 8, when k = 1, the reference point 1 and the reference point 2 are divided into n2 periods, and the positions p (1,1) and p ( 1) of the node N at the n2-1 division points. , 2) , p (1 , 3) ,..., P (1, n2-1) . Further, when k = 2, the reference point 2 and the end point are divided into n3 periods, and the positions p (2,1) , p (2,2) , p of the node N at the n3-1 dividing points. Each coordinate of (2,3) ,..., P (2, n3-1) is calculated.

k=Mになると(ステップS134のY)、これまでに算出した各ノードの位置座標を時刻順に並べて軌跡データを生成し(ステップS136)、時間の正規化処理を終了する。これにより、図8の例では、p,p(0,1),p(0,2),p(0,3),・・・,p(0,n1−1),p,p(1,1),p(1,2),p(1,3),・・・,p(1,n2−1),p,p(2,1),p(2,2),p(2,3),・・・,p(2,n3−1),pに対応する座標列からなる軌跡データが得られる。 When k = M (Y in step S134), the position coordinates of the nodes calculated so far are arranged in order of time to generate trajectory data (step S136), and the time normalization process ends. Thus, in the example of FIG. 8, p 0, p (0,1 ), p (0,2), p (0,3), ···, p (0, n1-1), p 1, p (1,1), p (1,2) , p (1,3), ···, p (1, n2-1), p 2, p (2,1), p (2,2), p (2,3), ···, p (2, n3-1), locus data consisting of coordinate sequence corresponding to p 3 is obtained.

時間の正規化としては2種類の手法が考えられる。第1の正規化手法は、開始点から終了点までの時間(解析対象の運動に対応する時間)を、被験者モデルの軌跡データとリファレンスモデルの軌跡データで等しくする。この場合、開始点と最初の基準点の間隔、基準点間の間隔、最後の基準点と終了点の間隔は被験者モデルの軌跡データとリファレンスモデルの軌跡データでは異なる。この第1の正規化の手法では、運動の節目の時間が被験者モデルの軌跡データとリファレンスモデルの軌跡データで異なるので、節目から節目への移行時間の比較が可能である。   There are two types of time normalization methods. In the first normalization method, the time from the start point to the end point (time corresponding to the motion to be analyzed) is made equal between the trajectory data of the subject model and the trajectory data of the reference model. In this case, the interval between the start point and the first reference point, the interval between the reference points, and the interval between the last reference point and the end point are different between the trajectory data of the subject model and the trajectory data of the reference model. In this first normalization method, since the knot time of movement differs between the trajectory data of the subject model and the trajectory data of the reference model, the transition time from the knot to the knot can be compared.

第2の正規化の手法では、開始点から終了点までの時間とともに、開始点と最初の基準点の間隔、基準点間の間隔、最後の基準点と終了点の間隔(解析対象の運動を分割した複数の運動の各々に対応する時間)のすべてについて、被験者モデルの軌跡データとリファレンスモデルの軌跡データで等しくする。この第2の正規化の手法では、運動の節目の時間が被験者モデルの軌跡データとリファレンスモデルの軌跡データで同じになるので、フォームや軌道の比較に適している。   In the second normalization method, with the time from the start point to the end point, the interval between the start point and the first reference point, the interval between the reference points, the interval between the last reference point and the end point (the motion of the analysis target The time corresponding to each of the plurality of divided motions) is made equal between the trajectory data of the subject model and the trajectory data of the reference model. This second normalization method is suitable for comparing forms and trajectories because the movement node time is the same for the trajectory data of the subject model and the trajectory data of the reference model.

(軌跡データのサイズの正規化)
次に、サイズを正規化した軌跡データを生成する手法の一例について説明する。軌跡データのサイズの正規化とは、各時刻での被験者モデルのサイズを正規化することである。人はそれぞれ体格が異なるので、例えば、人の体の各部のサイズの平均値を求め、これに対して変換する。
(Normalization of trajectory data size)
Next, an example of a method for generating trajectory data with a normalized size will be described. Normalizing the size of trajectory data means normalizing the size of the subject model at each time. Since each person has a different physique, for example, an average value of the size of each part of the person's body is obtained and converted.

図9に、サイズを正規化した軌跡データを生成する処理のフローチャートの一例を示す。なお、図9に示すフローチャートは、図2に示したフローチャートのステップS14の一部の処理のフローチャートの一例であり、このフローチャートの処理に先立って、同期部20から各モーションセンサー10のxyz座標系の位置データの取得処理(図2のステップS12の処理)は終了している。   FIG. 9 shows an example of a flowchart of processing for generating trajectory data with normalized size. The flowchart shown in FIG. 9 is an example of a flowchart of a part of the process in step S14 of the flowchart shown in FIG. 2, and prior to the process of this flowchart, the synchronization unit 20 sends the xyz coordinate system of each motion sensor 10 to each other. The position data acquisition process (step S12 in FIG. 2) has been completed.

まず、被験者モデルの各ノードNiとノードNiに接続された各ノードNjとの実際の距離Lijと正規化した距離Kijを設定する(ステップS200)。被験者の体格をメジャーを使って実際に測定し、Lijを設定してもよいし、被験者が予め定められた運動をして体格を測定(キャリブレーション)することでLijを設定することも可能である。また、キャリブレーションをせず、被験者の実際の運動フォームから体格を測定してLijを設定することもできる。一旦測定した被験者の体格の測定データ(Lijの値)は記憶部60に記録され、記録された各被験者の体格の測定データは必要に応じて更新可能である。また、Kijは、ノードNiとノードNjの距離の平均値などのあらかじめ決められた所定値に設定してもよいし、リファレンスモデルにおける対応するノード間の距離に設定してもよい。 First, an actual distance L ij and a normalized distance K ij between each node Ni of the subject model and each node Nj connected to the node Ni are set (step S200). The subject's physique may be actually measured using a measure, and L ij may be set, or the subject may perform a predetermined exercise and measure the physique (calibration) to set L ij. Is possible. In addition, L ij can be set by measuring the physique from the actual exercise form of the subject without performing calibration. The measurement data (L ij value) of the physique of the subject once measured is recorded in the storage unit 60, and the recorded measurement data of the physique of each subject can be updated as necessary. K ij may be set to a predetermined value such as an average value of the distance between the node Ni and the node Nj, or may be set to a distance between corresponding nodes in the reference model.

次に、時刻tを0に設定し(ステップS202)、時刻tに取得したxyz座標系の位置データから、回転中心のノードNkからノードNkに接続された各ノードNmに向かうXYZ座標系のベクトルVkm(t)を算出する。例えば、図10に示すように、時刻tにおいて、右肩に対応するノードN3(回転中心のノード)から右肘に対応するノードN4に向かうベクトルV34(t)を算出する。 Next, time t is set to 0 (step S202), and from the position data of the xyz coordinate system acquired at time t, the vector of the XYZ coordinate system from the rotation center node Nk to each node Nm connected to the node Nk. V km (t) is calculated. For example, as shown in FIG. 10, at time t, a vector V 34 (t) from the node N3 corresponding to the right shoulder to the node N4 corresponding to the right elbow is calculated.

次に、ステップS202で算出した各ベクトルVkm(t)の長さをKkm/Lkm倍し、各ノードNmのXYZ座標系の位置座標を算出する(ステップS206)。図10の例では、右肩から右肘までの長さが平均25cm(=K34)、被験者の右肩から右肘までの長さが23cm(=L34)とすると、時刻tにおけるV34(t)の長さL34(t)を25/23倍する。 Next, the length of each vector V km (t) calculated in step S202 is multiplied by K km / L km , and the position coordinates of each node Nm in the XYZ coordinate system are calculated (step S206). In the example of FIG. 10, assuming that the average length from the right shoulder to the right elbow is 25 cm (= K 34 ) and the length from the subject's right shoulder to the right elbow is 23 cm (= L 34 ), V 34 at time t. The length L 34 (t) of (t) is multiplied by 25/23.

回転中心のノードが他にもある場合は(ステップS208のY)、次の回転中心のノードに対して、ステップS204,S206の処理を行う。   If there is another rotation center node (Y in step S208), the processes in steps S204 and S206 are performed on the next rotation center node.

すべての回転中心のノードに対して処理を終了すると(ステップS208のN)、tを位置データの取得周期Δtだけ増やし(ステップS210)、処理対象の位置データがまだあれば(ステップS212のY)、時刻tに取得したxyz座標系の位置データを用いて、同様に、ステップS204〜S210の処理を行う。   When the process is completed for all nodes at the center of rotation (N in step S208), t is increased by the position data acquisition period Δt (step S210), and if there is still position data to be processed (Y in step S212). Similarly, the processing of steps S204 to S210 is performed using the position data of the xyz coordinate system acquired at time t.

処理対象の位置データがなくなれば(ステップS212のN)、各ノードのXYZ座標系の位置座標を時刻順に並べて軌跡データを生成し(ステップS214)、サイズの正規化処理を終了する。   If there is no position data to be processed (N in step S212), the position coordinates of each node in the XYZ coordinate system are arranged in time order to generate trajectory data (step S214), and the size normalization process ends.

このようにして得られるサイズを正規化した軌跡データは、フォーマット2の軌跡データとして記憶部60に保存される。   The trajectory data obtained by normalizing the size thus obtained is stored in the storage unit 60 as trajectory data of format 2.

また、例えば、図7のフローチャートに従って時間を正規化した軌跡データが得られている場合には、この軌跡データに対して、図9のフローチャートを適用してもよい。このようにして得られるサイズ及び時間を正規化した軌跡データは、フォーマット3の軌跡データとして記憶部60に保存される。   Further, for example, when trajectory data in which time is normalized according to the flowchart of FIG. 7 is obtained, the flowchart of FIG. 9 may be applied to the trajectory data. The trajectory data obtained by normalizing the size and time obtained in this manner is stored in the storage unit 60 as trajectory data of format 3.

また、ボール3などの運動用具300に内蔵したモーションセンサー10からのデータに基づいて、同様の処理により、運動用具300についても軌跡データや速度などの運動に関する解析情報を生成し、必要に応じて軌跡データの時間やサイズの正規化を行って記憶部60に保存することができる。   Further, based on the data from the motion sensor 10 built in the exercise tool 300 such as the ball 3, the same processing is performed to generate analysis information on the exercise tool 300 such as trajectory data and speed, and if necessary, The time and size of the trajectory data can be normalized and stored in the storage unit 60.

なお、オリジナルの軌跡データや正規化した軌跡データを記憶部60に保存する代わりに、軌跡データから特徴量を抽出して記憶部60に保存してもよい。特徴量としては、軌跡データに対してFFT(Fast Fourier Transform)処理やDCT(Discrete Cosine Transform)処理してn次の係数を取り出して保存するなどが考えられる。軌跡データそのもの代わりに特徴量を使うとリファレンスとの比較が容易にできる、正規化の処理を簡略化できる、後述する仮想センサーの計算が簡単にできるなどのメリットが考えられる。   Instead of storing the original trajectory data and the normalized trajectory data in the storage unit 60, a feature amount may be extracted from the trajectory data and stored in the storage unit 60. As the feature amount, it is conceivable that the trajectory data is subjected to FFT (Fast Fourier Transform) processing or DCT (Discrete Cosine Transform) processing to extract and store the n-th order coefficient. Use of feature quantities instead of the trajectory data itself can be advantageous in that comparison with a reference can be easily performed, normalization processing can be simplified, and calculation of a virtual sensor described later can be simplified.

[モード2の処理]
モード2では、処理部30は、被験者の被験者モデルの軌跡データとリファレンスモデルの軌跡データを比較する処理を行う。比較の対象となるのは、正規化した軌跡データ同士である。被験者モデルの軌跡データは、モード1で生成・正規化して記憶部60に保存したものである。リファレンスモデルの軌跡データは、あらかじめ正規化してフォーマット2とフォーマット3の一方又は両方の軌跡データとして記憶部60(軌跡情報記憶部62)に保存してある。ただし、被験者モデルの軌跡データとリファレンスモデルの軌跡データの一方又は両方をオリジナルの軌跡データ(フォーマット1の軌跡データ)として保存しておき、比較処理の前にオリジナルの軌跡データを正規化(フォーマット2又はフォーマット3の軌跡データに変換)するようにしてもよい。
[Mode 2 processing]
In mode 2, the processing unit 30 performs a process of comparing the trajectory data of the subject model of the subject with the trajectory data of the reference model. What is to be compared is normalized trajectory data. The trajectory data of the subject model is generated and normalized in mode 1 and stored in the storage unit 60. The trajectory data of the reference model is normalized in advance and stored in the storage unit 60 (trajectory information storage unit 62) as one or both of the format 2 and format 3 trajectory data. However, one or both of the trajectory data of the subject model and the trajectory data of the reference model is stored as original trajectory data (trajectory data of format 1), and the original trajectory data is normalized (format 2) before the comparison process. Alternatively, it may be converted into locus data of format 3.

フォーマット3の軌跡データ同士を比較する場合、対応する時点における各ノードの位置を比較し、その差を計算する。例えば、開始点と開始点、基準点と基準点、終了点と終了点、さらに分割点と分割点における各ノードの位置をそれぞれ比較する。図11は、被験者モデルの1つのノードの軌跡とリファレンスモデルの対応するノードの軌跡の一例を示す図であり、被験者モデルのノードの軌跡を実線で表し、リファレンスモデルのノードの軌跡を破線で表している。例えば、pとr、pとr、pとr、pとr、pとr、pとrをそれぞれ比較し、その差のベクトルを算出する。この比較により、時間軸を合わせて運動フォームの詳細な解析を行うことができる。 When comparing the track data of the format 3, the positions of the nodes at the corresponding time points are compared, and the difference is calculated. For example, the start point and the start point, the reference point and the reference point, the end point and the end point, and the position of each node at the division point and the division point are compared. FIG. 11 is a diagram illustrating an example of the trajectory of one node of the subject model and the trajectory of the corresponding node of the reference model, where the trajectory of the node of the subject model is represented by a solid line, and the trajectory of the node of the reference model is represented by a broken line. ing. For example, p 1 and r 1 , p 2 and r 2 , p 3 and r 3 , p 4 and r 4 , p 5 and r 5 , and p 5 and r 5 are respectively compared, and a vector of the difference is calculated. By this comparison, it is possible to perform a detailed analysis of the exercise form by matching the time axis.

また、フォーマット2の軌跡データ同士を比較する場合、対応する時点における各ノードの位置を比較してその差を計算するとともに、対応する時点の時刻を比較してその差を計算する。例えば、開始点、基準点、終了点、各分割点における各ノードの位置をそれぞれ比較するとともに、開始点同士を合わせて、基準点同士の時間、終了点同士の時間、必要に応じて各分割点同士の時間をそれぞれ比較する。この比較により、運動フォームの解析とともに、開始点から基準点までの時間差、基準点から基準点までの時間差、基準点から終了点までの時間差などから運動動作の速度などの解析も行うことができる。   Further, when comparing the track data of format 2, the positions of the nodes at the corresponding time points are compared to calculate the difference, and the times at the corresponding time points are compared to calculate the difference. For example, the start point, reference point, end point, and the position of each node at each division point are compared, and the start points are combined, and the time between reference points, the time between end points, and each division as necessary Compare the time between points. By this comparison, along with the analysis of the movement form, the time difference from the start point to the reference point, the time difference from the reference point to the reference point, the time difference from the reference point to the end point, etc. can be analyzed. .

比較結果は表またはグラフとして表示部70に表示され、「基準点1から基準点2までの時間がリファレンスよりXms早い」あるいは「基準点1から基準点2の間でリファレンスより5cm上を通っている。」などの定量的な解析情報が得られる。   The comparison result is displayed on the display unit 70 as a table or graph, and “the time from the reference point 1 to the reference point 2 is Xms earlier than the reference” or “the reference point 1 to the reference point 2 passes 5 cm above the reference. Quantitative analysis information is obtained.

ただし、場合によっては定量的な解析情報よりも直感的な表現を表示したほうが理解しやすい場合がある。例えば、定量的な解析情報に応じて、「振りが小さい」、「つっこみすぎ」、「ヘッドアップ」、「アッパースイング」などのリファレンスとの軌道の差を特徴づける表現を表示させるようにしてもよい。そこで、本実施形態では、記憶部60(辞書情報記憶部64)に、被験者モデルの軌跡情報とリファレンスモデルの軌跡情報との差の情報と複数の表現(直感的な表現など)の対応関係を定義する辞書情報が記憶されている。処理部30は、この辞書情報を参照し、定量的な解析情報に応じて1つ又は複数の表現を選択して表示部70に表示させる。これにより、使用者は理解しやすい言葉でリファレンスとの違いを知ることができる。なお、この辞書情報はユーザ定義が可能であり、個々のユーザに最適化した表現ができるようにしてもよい。   However, in some cases, it may be easier to understand if an intuitive expression is displayed rather than quantitative analysis information. For example, depending on the quantitative analysis information, an expression characterizing the difference in trajectory from the reference such as “small swing”, “too much picking”, “head up”, “upper swing”, etc. may be displayed. Good. Therefore, in the present embodiment, the storage unit 60 (dictionary information storage unit 64) stores the correspondence between the difference information between the trajectory information of the subject model and the trajectory information of the reference model and a plurality of expressions (intuitive expressions, etc.). Dictionary information to be defined is stored. The processing unit 30 refers to the dictionary information, selects one or more expressions according to the quantitative analysis information, and causes the display unit 70 to display them. As a result, the user can know the difference from the reference with easy-to-understand words. Note that this dictionary information can be user-defined and can be expressed optimized for each user.

また、比較結果と合わせて、ボール3などの運動用具300の運動に関する軌跡や速度などの解析情報を表示部70に表示するようにしてもよい。このようにすれば、例えば、被験者の投球フォームとボール3の軌道や速度との定量的な関係を評価することができ、より有益な解析を行うことができる。   Further, along with the comparison result, analysis information such as a trajectory and speed related to the exercise of the exercise tool 300 such as the ball 3 may be displayed on the display unit 70. In this way, for example, a quantitative relationship between the pitching form of the subject and the trajectory and speed of the ball 3 can be evaluated, and more useful analysis can be performed.

[モード3の処理]
モード3では、処理部30は、軌跡データから運動データのアニメーションを生成して3D画像で表示する処理を行う。任意の運動データを表示部70に表示し、リファレンスの動きや被験者の動きを確認することができる。例えば、記憶部60に3Dグラフィックスソフトを用意しておき、処理部30は、3Dグラフィックスソフトを起動して運動データを入力し、3Dグラフィックスソフトの描画機能を利用することで、表示部70に3D画像を表示させることができる。また、3Dグラフィックスソフトの機能を利用して仮想カメラの位置や方向を変えることにより、ビューポイントを変更して3D画像を表示させることもできる。このようにすれば、運動のフォームをさまざまな角度から見ることができる。
[Mode 3 processing]
In mode 3, the processing unit 30 performs a process of generating an animation of motion data from the trajectory data and displaying it as a 3D image. Arbitrary exercise data can be displayed on the display unit 70 to check the movement of the reference and the movement of the subject. For example, 3D graphics software is prepared in the storage unit 60, and the processing unit 30 activates the 3D graphics software, inputs exercise data, and uses the drawing function of the 3D graphics software to display the display unit. 70 can display a 3D image. Further, by changing the position and direction of the virtual camera using the function of the 3D graphics software, the viewpoint can be changed to display a 3D image. In this way, you can see the form of movement from various angles.

また、3Dグラフィックスソフトの機能を利用し、被験者モデルのアニメーションとリファレンスモデルのアニメーションを並べて表示させたり、重ねて表示させることもできる。図12は、被験者モデルのアニメーションとリファレンスモデルのアニメーションを並べて表示させた例を示す図である。表示部70の表示領域400において、表示領域410に被験者モデル412のアニメーション画像が表示され、別の表示領域420にリファレンスモデル422のアニメーション画像が並べて表示されている。なお、この被験者モデル412とリファレンスモデル422は、人体モデル4を各部位に対応する簡略化されたパーツオブジェクトで肉付けしたものである。また、図13は、被験者モデルのアニメーションとリファレンスモデルのアニメーションを重ねて表示させた例を示す図である。表示部70の表示領域400において、表示領域430に被験者モデル432のアニメーション画像とリファレンスモデル434のアニメーション画像が重ねて表示されている。このように重ねて表示することで、リファレンスとの違いをより明確にすることができる。   In addition, by using the function of 3D graphics software, the animation of the subject model and the animation of the reference model can be displayed side by side or displayed in a superimposed manner. FIG. 12 is a diagram illustrating an example in which a subject model animation and a reference model animation are displayed side by side. In the display area 400 of the display unit 70, an animation image of the subject model 412 is displayed in the display area 410, and an animation image of the reference model 422 is displayed side by side in another display area 420. The subject model 412 and the reference model 422 are obtained by fleshing out the human body model 4 with simplified part objects corresponding to the respective parts. FIG. 13 is a diagram showing an example in which the subject model animation and the reference model animation are displayed in an overlapping manner. In the display area 400 of the display unit 70, the animation image of the subject model 432 and the animation image of the reference model 434 are displayed in the display area 430 in an overlapping manner. By overlapping and displaying in this way, the difference from the reference can be made clearer.

このように、被験者モデルのアニメーションとリファレンスモデルのアニメーションを並べて表示させたり、重ねて表示させることで、現在の被験者のフォームとプロスポーツ選手の模範的なフォームや被験者の過去の好調時のフォームとを同時に見て、フォームのチェックを行うことができる。図13の例では、リファレンスの方が重心が低く、投球する瞬間の両足の幅が広いことを明確に知ることができる。   In this way, by displaying the subject model animation and the reference model animation side by side or overlapping, the current subject form and the professional athlete's exemplary form or the subject's past favorable form You can check the form at the same time. In the example of FIG. 13, it can be clearly seen that the reference has a lower center of gravity and the width of both feet is wider at the moment of pitching.

[モード4の処理]
モード1、モード2、モード3の処理を行う前に、被験者のどの部位にモーションセンサー10を装着し、どの部位は仮想センサーで位置情報を得るかを決定する必要がある。運動の種類により、モーションセンサー10を取り付ける位置が異なるし、解析のレベル(プロ選手用か入門者用か等)で求められる精度が異なるので、最適な条件を決める必要がある。そこで、モード4では、モーションセンサー10の最適数や、最適な取り付け部位の決定を支援する。
[Mode 4 processing]
Before performing the processing of mode 1, mode 2, and mode 3, it is necessary to determine which part of the subject the motion sensor 10 is attached to and which part obtains the position information by the virtual sensor. The position where the motion sensor 10 is attached differs depending on the type of exercise, and the accuracy required for the level of analysis (for professional players or for beginners) differs, so it is necessary to determine the optimum conditions. Therefore, in mode 4, the determination of the optimal number of motion sensors 10 and the optimal attachment site is supported.

具体的には、モード4では、処理部30は、被験者に取り付けたモーションセンサー10のデータから対応するノードの軌跡を求めるとともに、このモーションセンサー10のデータを使用せずに、他のモーションセンサー10のデータのみから同じノードの軌跡(仮想的な軌跡)を計算によって求め、この2つの軌跡の差の情報を表示部70に表示させる。ユーザーは、この情報を解析することで、仮想センサーにしてもよいモーションセンサー10を探すことができる。例えば、肘にモーションセンサー10を取り付けるべきか判断する場合、肩、肘、手首にモーションセンサー10を装着してデータを取得する。そして、肩と手首に取り付けたモーションセンサー10の情報から肘の軌跡を計算し、計算により得られた軌跡と肘に取り付けたモーションセンサー10の情報から得られた軌跡との差やその他の定量的な誤差を計算して表示する。この2つの軌跡の差や定量的な誤差を確認することで、肘に取り付けたモーションセンサー10を外しても問題ないかを判断することができる。なお、人体モデルは汎用的な運動に対応できるようになっているため、特殊な運動では仮想センサーに対する計算誤差が大きくなる可能性がある。そこで、この誤差をもとに人体モデルのパラメータを変更することで、計算誤差を少なくすることができる。このようにして人体モデルの学習を行い、モデルの精度を上げることができる。   Specifically, in mode 4, the processing unit 30 obtains the trajectory of the corresponding node from the data of the motion sensor 10 attached to the subject, and uses the other motion sensor 10 without using the data of the motion sensor 10. The trajectory of the same node (virtual trajectory) is obtained from the data alone by calculation, and information on the difference between the two trajectories is displayed on the display unit 70. By analyzing this information, the user can search for a motion sensor 10 that may be a virtual sensor. For example, when determining whether the motion sensor 10 should be attached to the elbow, the motion sensor 10 is attached to the shoulder, elbow, and wrist to acquire data. Then, the elbow trajectory is calculated from the information of the motion sensor 10 attached to the shoulder and the wrist, the difference between the trajectory obtained by the calculation and the trajectory obtained from the information of the motion sensor 10 attached to the elbow, and other quantitative measures. Calculate and display the error. By checking the difference between these two trajectories and the quantitative error, it can be determined whether there is no problem even if the motion sensor 10 attached to the elbow is removed. In addition, since the human body model is adapted to general-purpose motion, there is a possibility that a calculation error with respect to the virtual sensor becomes large in a special motion. Therefore, the calculation error can be reduced by changing the parameters of the human body model based on this error. In this way, the human body model can be learned, and the accuracy of the model can be increased.

以上に説明したように、本実施形態の運動解析装置によれば、被験者モデルとリファレンスモデルに対して、サイズの正規化を行ったフォーマット2の軌跡データ同士を比較することで、被験者とリファレンスの運動フォームや運動速度の差を定量的に解析することができる。さらに、サイズの正規化と時間の正規化を行ったフォーマット3の軌跡データ同士を比較することで、被験者とリファレンスの運動フォームのわずかな差も定量的に解析することができる。   As described above, according to the motion analysis apparatus of the present embodiment, by comparing the track data of the format 2 in which the size is normalized with respect to the subject model and the reference model, the subject and the reference are compared. Differences in exercise form and exercise speed can be analyzed quantitatively. Further, by comparing the track data of the format 3 in which the size normalization and the time normalization are performed, a slight difference between the subject and the reference exercise form can be quantitatively analyzed.

また、本実施形態の運動解析装置によれば、被験者モデルの軌跡データとリファレンスモデルの軌跡データに対して、開始点、基準点、終了点を一致させた時間の正規化を行って両者を比較することで、運動フォームの差をより詳細に解析することができる。   In addition, according to the motion analysis apparatus of the present embodiment, the time when the start point, the reference point, and the end point are matched is compared with the trajectory data of the subject model and the trajectory data of the reference model, and the two are compared. By doing so, the difference of the exercise form can be analyzed in more detail.

本発明は本実施形態に限定されず、本発明の要旨の範囲内で種々の変形実施が可能である。   The present invention is not limited to the present embodiment, and various modifications can be made within the scope of the gist of the present invention.

本実施形態では野球の投球フォームの解析を例に挙げて説明したが、本実施形態の運動解析装置は、野球の打撃フォームの解析、テニスやゴルフのスイング解析、ボーリングの投球フォームの解析、モデルのウォーキング姿勢の解析など、様々な運動の解析に利用することができる。   In the present embodiment, the analysis of the baseball pitching form has been described as an example. However, the motion analysis apparatus of the present embodiment analyzes the baseball batting form, the tennis or golf swing analysis, the bowling pitching form analysis, the model It can be used for various motion analysis such as analysis of walking posture.

本実施形態では、サイズのみを正規化したフォーマット2のデータやサイズ及び時間を正規化したフォーマット3のデータを生成して、リファレンスデータと比較する場合を例に挙げて説明したが、時間のみを正規化した(サイズの正規化はしない)データを生成して、リファレンスデータと比較するようにしてもよい。このようにしても、被験者とリファレンスの運動フォームの差を定量的に解析することができる。   In the present embodiment, the case of generating the data of format 2 in which only the size is normalized and the data in format 3 in which the size and time are normalized and compared with the reference data has been described as an example. However, only the time is described. Normalized data (without size normalization) may be generated and compared with reference data. Even in this way, the difference between the subject and the reference exercise form can be quantitatively analyzed.

本発明は、実施の形態で説明した構成と実質的に同一の構成(例えば、機能、方法及び結果が同一の構成、あるいは目的及び効果が同一の構成)を含む。また、本発明は、実施の形態で説明した構成の本質的でない部分を置き換えた構成を含む。また、本発明は、実施の形態で説明した構成と同一の作用効果を奏する構成又は同一の目的を達成することができる構成を含む。また、本発明は、実施の形態で説明した構成に公知技術を付加した構成を含む。   The present invention includes configurations that are substantially the same as the configurations described in the embodiments (for example, configurations that have the same functions, methods, and results, or configurations that have the same objects and effects). In addition, the invention includes a configuration in which a non-essential part of the configuration described in the embodiment is replaced. In addition, the present invention includes a configuration that exhibits the same operational effects as the configuration described in the embodiment or a configuration that can achieve the same object. Further, the invention includes a configuration in which a known technique is added to the configuration described in the embodiment.

1 運動解析装置、2 被験者、3 ボール、4 人体モデル、10 モーションセンサー、12 3軸加速度センサー、14 3軸ジャイロセンサー、20 同期部、30 処理部、31 データ取得部、32 軌跡情報生成部、33 画像生成部、34 軌跡情報比較部、35 表示選択部、36 用具情報生成部、40 通信部、50 操作部、60 記憶部、62 軌跡情報記憶部、64 辞書情報記憶部、70 表示部、100 人体装着ユニット、200 処理・制御ユニット、300 運動用具、400 表示領域、410 表示領域、412 被験者モデル、420 表示領域、422 リファレンスモデル、430 表示領域、432 被験者モデル、434 リファレンスモデル 1 motion analysis device, 2 subjects, 3 balls, 4 human body model, 10 motion sensor, 12 3-axis acceleration sensor, 14 3-axis gyro sensor, 20 synchronization unit, 30 processing unit, 31 data acquisition unit, 32 locus information generation unit, 33 Image generation unit, 34 Trajectory information comparison unit, 35 Display selection unit, 36 Tool information generation unit, 40 Communication unit, 50 Operation unit, 60 Storage unit, 62 Trajectory information storage unit, 64 Dictionary information storage unit, 70 Display unit, 100 human body mounting unit, 200 processing / control unit, 300 exercise equipment, 400 display area, 410 display area, 412 subject model, 420 display area, 422 reference model, 430 display area, 432 subject model, 434 reference model

Claims (12)

モーションセンサーの出力データに基づいて、被験体をモデル化した被験体モデルの軌跡情報を生成する軌跡情報生成部と、
リファレンスモデルの軌跡情報を記憶する軌跡情報記憶部と、を含み、
前記軌跡情報生成部は、
前記軌跡情報記憶部から前記リファレンスモデルの軌跡情報を読み出し、前記被験体モデルの軌跡情報及び前記リファレンスモデルの軌跡情報の少なくとも一方に対して、前記被験体モデルのサイズと前記リファレンスモデルのサイズとを一致させるサイズの正規化及び前記被験体モデルの動作時間と前記リファレンスモデルの動作時間とを一致させる時間の正規化を行う、演算処理装置。
Based on the output data of the motion sensor, a trajectory information generation unit that generates trajectory information of a subject model obtained by modeling the subject,
A trajectory information storage unit that stores trajectory information of the reference model,
The trajectory information generation unit
It reads the locus information of the reference model from the locus information storage unit, to at least one of the locus information of the locus information and the reference model of the previous SL subject model, and size of the reference model and the size of the subject model An arithmetic processing unit that performs normalization of a size for matching the two and normalization of time for matching the operation time of the subject model and the operation time of the reference model .
被験体の動きを検出するモーションセンサーの出力データを取得するデータ取得部と、
前記出力データに基づいて、前記被験体をモデル化した被験体モデルの軌跡情報を生成する軌跡情報生成部と、
リファレンスモデルの軌跡情報を記憶する軌跡情報記憶部と、を含み、
前記軌跡情報生成部は、
前記軌跡情報記憶部から前記リファレンスモデルの軌跡情報を読み出し、前記被験体モデルの軌跡情報及び前記リファレンスモデルの軌跡情報の少なくとも一方に対して、解析対象の運動の前記被験体モデルの動作時間と前記リファレンスモデルの動作時間とを一致させる時間の正規化を行う、演算処理装置。
A data acquisition unit that acquires output data of a motion sensor that detects the movement of the subject;
Based on the output data, a trajectory information generation unit that generates trajectory information of a subject model that models the subject,
A trajectory information storage unit that stores trajectory information of the reference model,
The trajectory information generation unit
It reads the locus information of the reference model from the locus information storage unit, to at least one of the locus information of the locus information and the reference model of the previous SL subject model, and operation time of the subject model to be analyzed for motion An arithmetic processing unit that performs time normalization to match the operation time of the reference model.
請求項又はにおいて、
前記軌跡情報生成部は、
前記時間の正規化において、前記解析対象の運動を複数の運動に分割し、前記複数の運動の各々の前記被験体モデルの動作時間と前記リファレンスモデルの動作時間とを一致させる処理を行う、演算処理装置。
In claim 1 or 2 ,
The trajectory information generation unit
In the time normalization, an operation for dividing the motion to be analyzed into a plurality of motions and performing a process of matching the motion time of the subject model and the motion time of the reference model for each of the motions Processing equipment.
請求項1乃至のいずれか一項において、
前記正規化を行った後、前記被験体モデルの軌跡情報及び前記リファレンスモデルの軌
跡情報の画像を生成して表示部に表示させる画像生成部を含む、演算処理装置。
In any one of Claims 1 thru | or 3 ,
An arithmetic processing apparatus, comprising: an image generation unit that generates an image of the trajectory information of the subject model and the trajectory information of the reference model and displays the image on the display unit after performing the normalization.
請求項1乃至のいずれか一項において、
辞書情報を記憶する辞書情報記憶部と、
前記軌跡情報生成部が前記正規化を行った後、前記被験体モデルの軌跡情報及び前記リファレンスモデルの軌跡情報を比較する軌跡情報比較部と、
前記軌跡情報比較部の比較結果に基づいて、前記辞書情報から情報を選択し、表示部に表示させる表示選択部と、を含む、演算処理装置。
In any one of Claims 1 thru | or 4 ,
A dictionary information storage unit for storing dictionary information;
After the trajectory information generation unit performs the normalization, a trajectory information comparison unit that compares trajectory information of the subject model and trajectory information of the reference model,
And a display selection unit that selects information from the dictionary information based on a comparison result of the trajectory information comparison unit and causes the display unit to display the information.
請求項1乃至のいずれか一項において、
運動用具に取り付けられた前記モーションセンサーの出力データに基づいて、前記運動用具の運動解析情報を生成する用具情報生成部を含む、演算処理装置。
In any one of Claims 1 thru | or 5 ,
An arithmetic processing apparatus, comprising: a tool information generation unit that generates motion analysis information of the exercise tool based on output data of the motion sensor attached to the exercise tool.
請求項1乃至のいずれか一項において、
前記モーションセンサーからの出力データを用いて加速度および角速度を検出する、演算処理装置。
In any one of Claims 1 thru | or 6 ,
An arithmetic processing unit that detects acceleration and angular velocity using output data from the motion sensor.
被験体に取り付けられるモーションセンサーと、  A motion sensor attached to the subject;
前記モーションセンサーの出力データに基づいて、前記被験体をモデル化した被験体モデルの軌跡情報を生成する軌跡情報生成部と、リファレンスモデルの軌跡情報を記憶する軌跡情報記憶部と、を備えた演算処理装置と、を含み、  A computation comprising: a trajectory information generation unit that generates trajectory information of a subject model that models the subject based on output data of the motion sensor; and a trajectory information storage unit that stores trajectory information of a reference model. And a processing device,
前記軌跡情報生成部は、  The trajectory information generation unit
前記軌跡情報記憶部から前記リファレンスモデルの軌跡情報を読み出し、前記被験体モデルの軌跡情報及び前記リファレンスモデルの軌跡情報の少なくとも一方に対して、前記被験体モデルのサイズと前記リファレンスモデルのサイズとを一致させるサイズの正規化及び前記被験体モデルの動作時間と前記リファレンスモデルの動作時間とを一致させる時間の正規化を行う、運動解析装置。  The trajectory information of the reference model is read from the trajectory information storage unit, and the size of the subject model and the size of the reference model are determined for at least one of the trajectory information of the subject model and the trajectory information of the reference model. A motion analysis apparatus that normalizes a size to be matched, and normalizes a time to match the operation time of the subject model and the operation time of the reference model.
モーションセンサーからの出力データに基づいて、前記被験体をモデル化した被験体モデルの軌跡情報を生成し、
記憶されているリファレンスモデルを読み出し
記被験体モデルの軌跡情報及び前記リファレンスモデルの軌跡情報の少なくとも一方に対して、前記被験体モデルのサイズと前記リファレンスモデルのサイズとを一致させるサイズの正規化及び前記被験体モデルの動作時間と前記リファレンスモデルの動作時間とを一致させる時間の正規化を行い、
前記サイズの正規化及び前記時間の正規化が行われた、前記被験体モデルの軌跡情報および前記リファレンスモデルの軌跡情報を表示する、表示方法。
Based on the output data from the motion sensor, generate trajectory information of the subject model that models the subject,
Read the stored reference model ,
To at least one of the locus information of the locus information and the reference model of the previous SL subject model, the operation time of the normalization and the subject model size to match the size of the reference model and the size of the subject model And normalizing the time to match the operation time of the reference model ,
The display method of displaying the trajectory information of the subject model and the trajectory information of the reference model that have been subjected to normalization of the size and normalization of the time .
モーションセンサーからの出力データに基づいて、前記被験体をモデル化した被験体モデルの軌跡情報を生成し、
記憶されているリファレンスモデルを読み出し
記被験体モデルの軌跡情報及び前記リファレンスモデルの軌跡情報の少なくとも一方に対して、解析対象の運動の前記被験体モデルの動作時間と前記リファレンスモデルの動作時間とを一致させる時間の正規化を行い、
前記時間の正規化が行われた、前記被験体モデルの軌跡情報および前記リファレンスモデルの軌跡情報を表示する、表示方法。
Based on the output data from the motion sensor, generate trajectory information of the subject model that models the subject,
Read the stored reference model ,
To at least one of the locus information of the locus information and the reference model of the previous SL subject model, the normalized time to match the operation time of the reference model and the operation time of the subject model to be analyzed for motion Done
A display method for displaying the trajectory information of the subject model and the trajectory information of the reference model in which the time is normalized.
モーションセンサーからの出力データに基づいて、前記被験体をモデル化した被験体モデルの軌跡情報を生成する手順と、
記憶されているリファレンスモデルを読み出す手順と、
記被験体モデルの軌跡情報及び前記リファレンスモデルの軌跡情報の少なくとも一方に対して、前記被験体モデルのサイズと前記リファレンスモデルのサイズとを一致させるサイズの正規化及び前記被験体モデルの動作時間と前記リファレンスモデルの動作時間とを一致させる時間の正規化を行う手順と、をコンピューターに実行させるプログラム。
A procedure for generating trajectory information of a subject model obtained by modeling the subject based on output data from a motion sensor;
The procedure to read the stored reference model,
To at least one of the locus information of the locus information and the reference model of the previous SL subject model, the operation time of the normalization and the subject model size to match the size of the reference model and the size of the subject model And a program for causing a computer to execute a procedure for normalizing the time to match the operation time of the reference model .
モーションセンサーからの出力データに基づいて、前記被験体をモデル化した被験体モデルの軌跡情報を生成する手順と、
記憶されているリファレンスモデルを読み出す手順と、
記被験体モデルの軌跡情報及び前記リファレンスモデルの軌跡情報の少なくとも一方に対して、解析対象の運動の前記被験体モデルの動作時間と前記リファレンスモデルの動作時間とを一致させる時間の正規化を行う手順と、をコンピューターに実行させるプログラム。
A procedure for generating trajectory information of a subject model obtained by modeling the subject based on output data from a motion sensor;
The procedure to read the stored reference model,
To at least one of the locus information of the locus information and the reference model of the previous SL subject model, the normalized time to match the operation time of the reference model and the operation time of the subject model to be analyzed for motion A program that causes a computer to perform the steps to be performed.
JP2010271630A 2010-12-06 2010-12-06 Arithmetic processing device, motion analysis device, display method and program Active JP5641222B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2010271630A JP5641222B2 (en) 2010-12-06 2010-12-06 Arithmetic processing device, motion analysis device, display method and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010271630A JP5641222B2 (en) 2010-12-06 2010-12-06 Arithmetic processing device, motion analysis device, display method and program

Publications (3)

Publication Number Publication Date
JP2012120579A JP2012120579A (en) 2012-06-28
JP2012120579A5 JP2012120579A5 (en) 2014-01-16
JP5641222B2 true JP5641222B2 (en) 2014-12-17

Family

ID=46502718

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010271630A Active JP5641222B2 (en) 2010-12-06 2010-12-06 Arithmetic processing device, motion analysis device, display method and program

Country Status (1)

Country Link
JP (1) JP5641222B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2025134832A1 (en) * 2023-12-19 2025-06-26 Sony Group Corporation Information processing apparatus, information processing method, and program

Families Citing this family (28)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6051770B2 (en) * 2012-10-24 2016-12-27 セイコーエプソン株式会社 Sensor system and synchronization method
JP5835206B2 (en) * 2012-12-21 2015-12-24 ヤマハ株式会社 Motion analyzer
JP6187734B2 (en) * 2012-12-28 2017-08-30 セイコーエプソン株式会社 Analysis control device, motion analysis system, program, recording medium, and motion analysis method
JP6187735B2 (en) * 2012-12-28 2017-08-30 セイコーエプソン株式会社 Analysis control device, motion analysis system, program, recording medium, and motion analysis method
JP5803962B2 (en) 2013-03-22 2015-11-04 ソニー株式会社 Information processing apparatus, sensor apparatus, information processing system, and recording medium
JP6526026B2 (en) * 2013-10-20 2019-06-05 オアフ グループ,リミティド ライアビリティ カンパニー Method and system for determining motion of object
CA2943113C (en) * 2014-03-17 2022-10-25 Core Sports Technology Group Method and system for delivering biomechanical feedback to human and object motion
JP2015186531A (en) * 2014-03-26 2015-10-29 国立大学法人 東京大学 Motion information processing apparatus and program
EP3190475B1 (en) * 2014-09-04 2022-06-01 Leomo, Inc. Information terminal device
WO2016035464A1 (en) * 2014-09-04 2016-03-10 ソニー株式会社 Analysis method, system and analysis device
TWI530821B (en) * 2014-09-25 2016-04-21 中強光電股份有限公司 Head-mounted display system and operation method thereof
JP6583605B2 (en) 2014-12-12 2019-10-02 カシオ計算機株式会社 Exercise information generation apparatus, exercise information generation method, and exercise information generation program
KR101624595B1 (en) 2014-12-19 2016-05-26 아이디어링크 주식회사 Golf club and golf swing monitoring system
WO2016111069A1 (en) * 2015-01-05 2016-07-14 ソニー株式会社 Information processing device, information processing method, and program
US10918924B2 (en) 2015-02-02 2021-02-16 RLT IP Ltd. Frameworks, devices and methodologies configured to enable delivery of interactive skills training content, including content with multiple selectable expert knowledge variations
CN107851113A (en) 2015-05-08 2018-03-27 Gn 股份有限公司 Be configured as based on derived from performance sensor unit user perform attribute and realize the framework of automatic classification and/or search to media data, apparatus and method
KR20180015150A (en) * 2015-05-08 2018-02-12 지엔 아이피 피티와이 엘티디 Structures and methods configured to enable the analysis of physically performed functions, including the application of supply of interactive training content
WO2017096436A1 (en) 2015-12-10 2017-06-15 Guided Knowledge Ip Pty Ltd Frameworks and methodologies configured to enable real-time adaptive delivery of skills training data based on monitoring of user performance via performance monitoring hardware
JP6806327B2 (en) * 2016-11-07 2021-01-06 美津濃株式会社 Swing analyzer, program and swing analysis system for computer to analyze swing
JP6930995B2 (en) * 2016-11-09 2021-09-01 株式会社システムフレンド Stereoscopic image generation system, stereoscopic image generation method and stereoscopic image generation program
JP6787072B2 (en) * 2016-11-21 2020-11-18 カシオ計算機株式会社 Image processing equipment, analysis system, image processing method and program
JP7001095B2 (en) * 2017-07-04 2022-02-03 富士通株式会社 Information processing equipment, information processing programs and information processing methods
CN108721870B (en) * 2018-01-23 2023-05-26 吉林大学 A Method for Sports Training Evaluation Based on Virtual Environment
JP2019166238A (en) * 2018-03-26 2019-10-03 株式会社エヌ・ティ・ティ・データ Operation simulation support system and device
JP7262937B2 (en) 2018-06-29 2023-04-24 キヤノン株式会社 Information processing device, information processing method, and program
JP7281138B2 (en) * 2019-05-08 2023-05-25 住友ゴム工業株式会社 Swing analysis device
JP7435357B2 (en) * 2020-08-18 2024-02-21 トヨタ自動車株式会社 Operating state monitoring system, training support system, operating state monitoring system control method, and control program
JPWO2023145727A1 (en) * 2022-01-28 2023-08-03

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3742701B2 (en) * 1997-01-27 2006-02-08 株式会社エクシング Choreography scoring equipment for karaoke
JP2001000420A (en) * 1999-06-16 2001-01-09 Hitachi Plant Eng & Constr Co Ltd Goal achievement evaluation device and goal achievement evaluation method
US6514081B1 (en) * 1999-08-06 2003-02-04 Jeffrey L. Mengoli Method and apparatus for automating motion analysis
JP2002253718A (en) * 2001-02-28 2002-09-10 Konami Co Ltd Device, method and program for evaluating training
JP4264368B2 (en) * 2004-02-24 2009-05-13 日本ナレッジ株式会社 Practical skill analysis system and program
JP2006181014A (en) * 2004-12-27 2006-07-13 Fuji Photo Film Co Ltd Image analysis device and movement correction system
JP4646209B2 (en) * 2005-02-23 2011-03-09 日本ナレッジ株式会社 Practical skill analysis system and program
WO2008137046A1 (en) * 2007-05-02 2008-11-13 John Levin System and method for improving a golf swing
JP5421571B2 (en) * 2008-11-05 2014-02-19 国立大学法人弘前大学 Walking characteristic evaluation system and locus generation method

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2025134832A1 (en) * 2023-12-19 2025-06-26 Sony Group Corporation Information processing apparatus, information processing method, and program

Also Published As

Publication number Publication date
JP2012120579A (en) 2012-06-28

Similar Documents

Publication Publication Date Title
JP5641222B2 (en) Arithmetic processing device, motion analysis device, display method and program
CN104225897B (en) Method of motion analysis and motion analyzing apparatus
EP3459061B1 (en) Multi -joint tracking combining embedded sensors and an external
CN107330967B (en) Rider motion posture capturing and three-dimensional reconstruction system based on inertial sensing technology
US11790536B1 (en) Swing analysis system
US11426099B2 (en) Mobile device avatar generation for biofeedback to customize movement control
US20220266091A1 (en) Integrated sports training
US20110054782A1 (en) Method and apparatus of measuring and analyzing user movement
JP6696109B2 (en) Motion analysis device, motion analysis system, motion analysis method and program
JP2017520336A (en) Method and system for delivering biomechanical feedback to human body and object motion
JP2018511450A (en) Framework, device, and method configured to provide interactive skill training content, including delivery of conformance training programs based on analysis of performance sensor data
JP2015156882A (en) Motion analysis apparatus and motion analysis system
US10307657B2 (en) Apparatus and method for automatically analyzing a motion in a sport
JP2016067410A (en) Motion analysis apparatus, motion analysis system, motion analysis method, and program
JP2017006192A (en) Advice generation method, advice generation program and advice generation system
JP2017029516A (en) Golf swing analyzer
KR20160106670A (en) Movement analysis method, movement analysis device, movement analysis system and program
JP2011078753A (en) Motor learning support apparatus and method
WO2020241738A1 (en) Training assisting method and device
KR102012963B1 (en) Golf swing coaching system and coaching method using the flexible sensor
WO2023085333A1 (en) Display device and display method
KR20220088862A (en) Quantified motion feedback system
JP7292870B2 (en) Golf swing evaluation system and golf swing evaluation method
Outram et al. Test-retest reliability of segment kinetic energy measures in the golf swing
JP7017921B2 (en) Golf swing evaluation system and golf swing evaluation method

Legal Events

Date Code Title Description
A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20131121

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20131121

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20140526

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20140604

RD07 Notification of extinguishment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7427

Effective date: 20140619

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20140801

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20141001

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20141014

R150 Certificate of patent or registration of utility model

Ref document number: 5641222

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350