[go: up one dir, main page]

JP7275811B2 - 映像出力装置、映像出力方法及びプログラム - Google Patents

映像出力装置、映像出力方法及びプログラム Download PDF

Info

Publication number
JP7275811B2
JP7275811B2 JP2019083511A JP2019083511A JP7275811B2 JP 7275811 B2 JP7275811 B2 JP 7275811B2 JP 2019083511 A JP2019083511 A JP 2019083511A JP 2019083511 A JP2019083511 A JP 2019083511A JP 7275811 B2 JP7275811 B2 JP 7275811B2
Authority
JP
Japan
Prior art keywords
angular velocity
velocity information
inertial sensor
output
user
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019083511A
Other languages
English (en)
Other versions
JP2020178860A (ja
Inventor
将司 上田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Casio Computer Co Ltd
Original Assignee
Casio Computer Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Casio Computer Co Ltd filed Critical Casio Computer Co Ltd
Priority to JP2019083511A priority Critical patent/JP7275811B2/ja
Publication of JP2020178860A publication Critical patent/JP2020178860A/ja
Application granted granted Critical
Publication of JP7275811B2 publication Critical patent/JP7275811B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • User Interface Of Digital Computer (AREA)
  • Studio Devices (AREA)
  • Navigation (AREA)
  • Image Analysis (AREA)

Description

本発明は、映像出力装置、映像出力方法及びプログラムに関する。
従来、実施者が技能(例えば、ゴルフ)に関する身体動作(例えば、ゴルフのスイング)を行いながら、自分(実施者)の動きと規範技能者の動きとを比較検討し、規範技能者の動きを的確に再現できているかどうかを自分自身で確認することができる身体技能習得支援装置が開示されている(例えば、特許文献1参照)。
特開2011-152333号公報
しかしながら、上記特許文献1に開示されている身体技能習得支援装置では、実施者の身体動作と規範技能者の動作とを同期させて表示しようとした場合、ユーザー操作に基づいて、実施者の画像と規範画像とのそれぞれの再生開始タイミングを調整しなければならないため面倒であるという問題がある。
本発明は、このような問題に鑑みてなされたものであり、手本の動作と当該手本と比較する比較対象者の動作を同期させた表示を簡便に行うことを目的とする。
上記課題を解決するため、本発明に係る映像出力装置は、
運動を行っているユーザーを連続的に撮影した第1の映像データとともに、当該運動を行っているときのユーザーに装着された慣性センサーから得られるセンサーデータを出力する第1の出力手段と、
前記第1の出力手段によって出力されるセンサーデータの各ポイントに対応するポイントのそれぞれが出現するタイミングを、連続的に撮影された前記運動と同じ運動を行っている手本映像データに付帯している所定の運動情報に基づいて特定する特定手段と、
前記特定手段によって特定された前記ポイントのそれぞれが出現するタイミングに対応する前記手本映像データのフレーム画像を、前記第1の出力手段によって出力されるセンサーデータの各ポイントが出現するタイミングに合わせて出力する第2の出力手段と、
前記慣性センサーが装着された体の部位を推定する推定手段と、
前記推定手段によって推定された前記体の部位に関する角速度情報を前記手本映像データに付帯している前記所定の運動情報から導出する第1の導出手段と、
前記慣性センサーを装着した前記ユーザーに任意の動作をさせた際の当該ユーザーを連続的に撮影した第2の映像データを取得する取得手段と、
前記取得手段によって取得された前記第2の映像データに基づいて、前記ユーザーの体の各部位の角速度情報を導出する第2の導出手段と、
前記第2の導出手段によって導出された前記ユーザーの体の各部位の角速度情報のうちの前記推定手段によって推定された前記体の部位の角速度情報と、前記任意の動作がなされている際に前記慣性センサーから得られた角速度情報とに基づいて、当該慣性センサーから得られた角速度情報が示す角速度の値が第1の閾値よりも大きく、且つ、当該慣性センサーから得られた角速度情報が示す角速度と、前記推定手段によって推定された前記体の部位の角速度情報が示す角速度と、の差の絶対値が第2の閾値よりも小さくなるタイミングの角速度情報を抽出する抽出手段と、
前記抽出手段によって抽出された角速度情報に基づいて、前記慣性センサーから得られた角速度情報が示す角速度と、前記推定手段によって推定された前記体の部位の角速度情報が示す角速度と、が一致する回転行列を導出する第3の導出手段と、
を備え、
前記特定手段は、前記第1の出力手段によって出力される前記センサーデータとしての角速度情報の各ポイントに対応するポイントのそれぞれが出現するタイミングを、前記第1の導出手段によって導出された前記角速度情報に基づいて特定し、
前記推定手段は、前記第2の導出手段によって導出された前記ユーザーの体の各部位の角速度情報と、前記任意の動作がなされている際に前記慣性センサーから得られた角速度情報とに基づいて、相関が最も高い角速度情報が導出された体の部位を前記慣性センサーが装着された体の部位として推定し、前記第3の導出手段によって導出された回転行列に基づいて、前記慣性センサーの装着姿勢を推定する、
ことを特徴とする。
本発明によれば、手本の動作と当該手本と比較する比較対象者の動作を同期させた表示を簡便に行うことができる。
映像出力装置の概略構成を示すブロック図である。 映像出力処理の流れを示すフローチャートである。 装着位置推定処理の流れを示すフローチャートである。 映像出力制御処理の流れを示すフローチャートである。 伸縮マッチング処理の説明図である。 ランニングフォーム比較画面の一例を示す図である。 変形例の装着位置推定処理の流れを示すフローチャートである。 変形例の映像出力制御処理の流れを示すフローチャートである。
以下、添付図面を参照して本発明に係る実施の形態を詳細に説明する。なお、本発明は、図示例に限定されるものではない。
≪映像出力装置1の構成≫
本実施形態の映像出力装置1は、運動の様子を連続的に撮影した手本映像における当該運動の動作と、この手本映像に映っている運動と同じ運動を行っているユーザーを連続的に撮影した映像における当該運動の動作とを同期させ所定の表示部(例えば、映像出力装置1と接続された外部の大型ディスプレイ)に表示する装置である。以下では、上記運動としてランニングを例に挙げて説明を行う。
図1は、本発明を適用した一実施形態の映像出力装置1の概略構成を示すブロック図である。
図1に示すように、映像出力装置1は、CPU(Central Processing Unit)11と、RAM(Random Access Memory)12と、記憶部13と、操作部14と、表示部15と、通信部16とを備える。
CPU(第1の出力手段、特定手段、第2の出力手段、推定手段、第1の導出手段、取得手段、第2の導出手段)11は、映像出力装置1の各部を制御する。CPU11は、記憶部13に記憶されているシステムプログラム及びアプリケーションプログラムのうち、指定されたプログラムを読み出してRAM12に展開し、当該プログラムとの協働で各種処理を実行する。
RAM12は、揮発性のメモリであり、各種のデータやプログラムを一時的に格納するワークエリアを形成する。
記憶部13は、例えば、フラッシュメモリ、EEPROM(Electrically Erasable Programmable ROM)、HDD(Hard Disk Drive)などにより構成される。記憶部13には、CPU11で実行されるシステムプログラムやアプリケーションプログラム、これらのプログラムの実行に必要なデータ等が記憶されている。
また、記憶部13には、所定の手本映像データを記憶するための手本映像記憶部(図示省略)が設けられている。ここで、所定の手本映像データとは、手本となるランナーがトレッドミルを用いてランニングを行っている様子を連続的に撮影した手本映像に関する映像データである。手本映像記憶部には、手本映像の撮影の際に、例えば、モーションキャプチャ技術を用いることにより得られる手本となるランナーの体の各部位(セグメント)の位置と姿勢を示す骨格情報が当該手本映像と同期が取られた状態で記憶されている。
また、記憶部13には、後述する装着位置推定処理の実行の際に用いられる推定処理用映像データを記憶するための推定処理用映像記憶部(図示省略)が設けられている。推定処理用映像データとは、ジャイロセンサー(慣性センサー)2(図6参照)を装着した体の部位を動かしているユーザーを連続的に撮影した映像(第2の映像)に関する映像データである。この推定処理用映像記憶部に推定処理用映像データが記憶される際、当該推定処理用映像データの映像の撮影時にユーザーに装着されたジャイロセンサー2から取得され、当該映像と同期が取れている角速度情報が対応付けられて記憶される。
操作部14は、例えば、タッチパネルを備え、ユーザーからのタッチ入力を受け付け、その操作情報をCPU11に出力する。
タッチパネルは、表示部15と一体となって形成され、例えば、静電容量方式、抵抗膜方式、超音波表面弾性波方式等の各種方式により、ユーザーによる表示部15上の接触位置のXY座標を検出する。そして、タッチパネルは、接触位置のXY座標に係る位置信号をCPU11に出力する。
表示部15は、LCD(Liquid Crystal Display)、EL(Electro Luminescence)ディスプレイ等で構成され、CPU11から指示された表示情報に従い各種表示を行う。
通信部16は、モデム、ルータ、ネットワークカード等により構成される。通信部16は、通信ネットワークを介して接続された外部機器とのデータ送受信を行う。
≪映像出力装置1の動作≫
[映像出力処理]
次に、図2を用いて映像出力装置1により実行される映像出力処理について説明する。
図2に示すように、まず、CPU11は、操作部14を介して、ユーザー所望の手本映像データの指定がなされたか否かを判定する(ステップS1)。
ステップS1において、ユーザー所望の手本映像データの指定がなされていないと判定された場合(ステップS1;NO)、CPU11は、ユーザー所望の手本映像データの指定がなされるまでの間、ステップS1の判定処理を繰り返し行う。
一方、ステップS1において、ユーザー所望の手本映像データの指定がなされたと判定された場合(ステップS1;YES)、CPU11は、記憶部13の手本映像記憶部からユーザー所望の手本映像データを取得する(ステップS2)。
次いで、CPU11は、ジャイロセンサー2の装着位置を推定する装着位置推定処理(ステップS3)を行う。なお、装着位置推定処理の詳細については後述する。
次いで、CPU11は、映像出力制御処理(ステップS4)を行い、映像出力処理を終了する。なお、映像出力制御処理の詳細については後述する。
[装着位置推定処理]
次に、図3を用いて装着位置推定処理について説明する。図3は、装着位置推定処理の流れを示すフローチャートである。なお、本実施形態では、例えば、ジャイロセンサー2を手首に装着する場合には、このジャイロセンサー2を手の甲側に装着するといったように、ジャイロセンサー2の装着姿勢に関する取り決めがなされているものとする。つまり、本実施形態の装着位置推定処理は、ジャイロセンサー2の装着姿勢を推定する必要がない点で後述する変形例の装着位置推定処理とは異なっている。
図3に示すように、まず、CPU11は、記憶部13の推定処理用映像記憶部に推定処理用映像データが登録されたか否かを判定する(ステップS11)。この推定処理用映像データの登録は、ジャイロセンサー2を体の所定の部位に装着したユーザーに、装着箇所を中心とした任意の回転運動を行わせ、当該運動を行っているユーザーを連続的に撮影した映像とともに、当該運動を行っているときのユーザーに装着されたジャイロセンサー2から得られる角速度情報を同期して登録するものである。
ステップS11において、推定処理用映像データが登録されていないと判定された場合(ステップS11;NO)、CPU11は、推定処理用映像データが登録されるまでの間、ステップS11の判定処理を繰り返し行う。
一方、ステップS11において、推定処理用映像データが登録されたと判定された場合(ステップS11;YES)、CPU11は、ステップS11で登録された推定処理用映像データに対応付けられているジャイロセンサー2の角速度情報(Gyr1)を取得する(ステップS12)。
次いで、CPU11は、ステップS11で登録された推定処理用映像データの推定処理用映像からユーザーの体の各部位の角速度情報(Gyr2)をそれぞれ導出する。具体的には、CPU11は、例えば、ディープラーニングを用いてユーザーの体の各部位の姿勢を推定する姿勢推定処理を行うことにより、当該ユーザーの体の各部位の角速度情報(Gyr2)をそれぞれ導出する。
次いで、CPU11は、ステップS12で取得された角速度情報(Gyr1)とステップS12で導出されたユーザーの体の各部位の角速度情報(Gyr2)の大きさの相関が最大となる角速度情報(Gyr2)が導出された体の部位をジャイロセンサー2の装着位置と推定し(ステップS14)、装着位置推定処理を終了して映像出力処理へ戻る。
[映像出力制御処理]
次に、図4を用いて映像出力制御処理について説明する。図4は、映像出力制御処理の流れを示すフローチャートである。
図4に示すように、まず、CPU11は、トレッドミルを用いてランニングを行っているユーザーの連続的な撮影がビデオカメラ(図示省略)により開始されたか否かを判定する(ステップS21)。
ステップS21において、撮影が開始されていないと判定された場合(ステップS21;NO)、CPU11は、当該撮影が開始されるまでの間、ステップS21の判定処理を繰り返し行う。
一方、ステップS21において、撮影が開始されたと判定された場合(ステップS21;YES)、CPU11は、上述の装着位置推定処理で装着位置と推定された体の部位の角速度情報を、ステップS2で取得された手本映像データに付帯している骨格情報から導出する(ステップS22)。
次いで、CPU11は、ランニングを行っているユーザーに装着されているジャイロセンサー2(図6参照)から角速度情報を取得する(ステップS23)。
次いで、CPU11は、ステップS22で導出された角速度情報とステップS23で取得された角速度情報とに基づいて伸縮マッチング処理(ステップS24)を行う。具体的には、まず、CPU11は、図5(a)に示すように、ステップS23で取得された角速度情報が示す信号波形W0から過去の周期Tを特定するとともに、この過去の周期Tにおいて、現在時刻tnに対応する時刻t1を特定する。次いで、CPU11は、図5(b)に示すように、この周期Tの期間の信号波形を切り出して切出波形W1を取得する。そして、CPU11は、図5(c)に示すように、ステップS22で導出された角速度情報に基づく1周期分の信号波形W2と切出波形W1との間においてマッチングする各位置(ポイント)を算出する。そして、CPU11は、切出波形W1と信号波形W2との対応関係から、信号波形W2において、切出波形W1の時刻t1、すなわち現在時刻tnに対応する時刻t2を特定する。
次いで、CPU11は、ステップS23で角速度情報が取得された現在時刻tnに対応する時刻t2(図5(c)参照)に撮影された画像(フレーム画像)G2を手本映像から取得する(ステップS25)。
次いで、CPU11は、ステップS25で取得された画像G2とステップS23で角速度情報が取得された現在時刻tnに対応して撮影されたユーザーの画像G1を出力し(ステップS26)、図6に示すように、ランニングフォーム比較画面20を外部ディスプレイに表示させる。
次いで、CPU11は、ランニングを行っているユーザーの連続的な撮影が終了したか否かを判定する(ステップS27)。
ステップS27において、ランニングを行っているユーザーの連続的な撮影が終了していないと判定された場合(ステップS27;NO)、CPU11は、処理をステップS23へ戻し、それ以降の処理を繰り返し行う。
一方、ステップS27において、ランニングを行っているユーザーの連続的な撮影が終了したと判定された場合(ステップS27;YES)、CPU11は、映像出力制御処理を終了し、映像出力処理に戻り当該映像出力処理を終了する。
以上のように、映像出力装置1によれば、ランニングを行っているユーザーを連続的に撮影した映像データ(第1の映像データ)とともに、ランニングを行っているときのユーザーに装着されたジャイロセンサー2から得られるセンサーデータを出力し、出力されるセンサーデータの各ポイントに対応するポイントのそれぞれが出現するタイミングを、連続的に撮影されたランニングを行っている手本映像データに付帯している骨格情報に基づいて特定し、特定されたポイントのそれぞれが出現するタイミングに対応する手本映像データの画像(フレーム画像G2)を、センサーデータの各ポイントが出現するタイミングに合わせて出力するので、手本の動作と当該手本と比較するユーザーの動作を同期させた表示を簡便に行うことができる。
また、映像出力装置1によれば、ジャイロセンサー2が装着された体の部位を推定し、推定された体の部位に関する角速度情報を手本映像データに付帯している骨格情報から導出し、ランニングを行っているユーザーに装着されたジャイロセンサー2から取得される角速度情報の各ポイントに対応するポイントのそれぞれが出現するタイミングを、上記骨格情報から導出された角速度情報に基づいて特定するので、手本の動作と当該手本と比較するユーザーの動作との同期を適切に行うことができる。
また、映像出力装置1によれば、骨格情報から導出された角速度情報の各ポイントとランニングを行っているユーザーに装着されたジャイロセンサー2から取得される角速度情報の各ポイントとの位置関係に基づいて、当該ランニングを行っているユーザーを連続的に撮影した映像データのフレーム画像が撮影されたタイミングに対応するタイミングを算出し、算出された当該タイミングに撮影された手本映像データのフレーム画像を出力するので、手本の動作と当該手本と比較するユーザーの動作との同期をより適切に行うことができる。
また、映像出力装置1によれば、ジャイロセンサー2を装着したユーザーに任意の動作をさせた際の当該ユーザーを連続的に撮影した推定処理用映像データを取得し、当該推定処理用映像データの映像に基づいて、ユーザーの体の各部位の角速度情報を導出し、導出されたユーザーの体の各部位の角速度情報と、上記任意の動作がなされている際にジャイロセンサー2から得られた角速度情報とに基づいて、相関が最も高い角速度情報が導出された体の部位をジャイロセンサー2が装着された体の部位として推定するので、ジャイロセンサー2の装着位置の推定を適切に行うことができる。
<変形例>
次に、上記実施形態の変形例について説明する。なお、上記実施形態と同様の構成要素には同一の符号を付し、その説明を省略する。
変形例では、上記実施形態とは異なり、ジャイロセンサー2の装着姿勢に関する取り決めがなされていない、すなわち、ジャイロセンサー2を体の各部位において所望の姿勢で装着(例えば、ジャイロセンサー2を手首に装着する場合、手の甲側に装着、手のひら側に装着、親指側に装着、小指側に装着、等)することができるようになっている。このため、変形例の装着位置推定処理では、ジャイロセンサー2の装着姿勢を推定する処理が必要となっている。
[装着位置推定処理]
次に、図7を用いて変形例の装着位置推定処理について説明する。図7は、変形例の装着位置推定処理の流れを示すフローチャートである。
図7に示すように、CPU(抽出手段)11は、上記実施形態の装着位置推定処理と同様にステップS11~ステップS14の処理を行った後、角速度情報(Gyr1)が示す角速度の値が第1の閾値TH1よりも大きく、角速度情報(Gyr1)が示す角速度と角速度情報(Gyr2)が示す角速度の差の絶対値が第2の閾値TH2よりも小さいという条件を満たすタイミングの角速度情報(Gyr1)と角速度情報(Gyr2)を抽出する(ステップS15)。
次いで、CPU(第3の導出手段)11は、ステップS15で抽出された角速度情報(Gyr1)が示す角速度と角速度情報(Gyr2)が示す角速度と、が一致する回転行列Rを導出し、導出された回転行列Rからジャイロセンサー2の装着姿勢を推定し(ステップS16)、映像出力処理へ戻る。
ここで、回転行列Rの導出方法について説明する。
数1に示すように、ステップS15で抽出された角速度情報(Gyr1)として、Gyr1とGyr1が抽出され、角速度情報(Gyr2)として、Gyr2とGyr2が抽出された場合、Gyr2=R・Gyr1及びGyr2=R・Gyr1の両式を満たす回転行列Rを導出する。
Figure 0007275811000001
回転行列Rの導出にあたり、まず、Gyr1=[Gyr1 Gyr1]、Gyr2=[Gyr2 Gyr2]のように、各ベクトルを横に並べた行列を作成し、下記の行列を作成する。
A=Gyr1・Gyr2
次に、上述の行列の“A”を特異値分解し、U、S、Vを得る。
U・S・V=A (S;対角行列)
次に、下記の式により“H”を算出する。
H=diag(1,1,det(V・U))
ここで、diag()は()内を成分とする対角行列であり、detは行列式である。
そして、回転行列Rは、下記のように導出される。
R=V・H・U
[映像出力制御処理]
次に、図8を用いて変形例の映像出力制御処理について説明する。図8は、変形例の映像出力制御処理の流れを示すフローチャートである。
図8に示すように、CPU(補正手段)11は、上記実施形態の映像出力制御処理と同様にステップS21~ステップS23の処理を行った後、ステップS22で導出された角速度情報を、上述の装着位置推定処理のステップS16で推定された装着姿勢に対応した角速度情報に補正する(ステップS30)。そして、CPU11は、ステップS30で補正された角速度情報とステップS23で取得された角速度情報とに基づいて伸縮マッチング処理(ステップS24)を行う。そして、CPU11は、上記実施形態の映像出力制御処理と同様にステップS25~ステップS27の処理を行い、映像出力処理へ戻る。
以上のように、変形例の映像出力装置1によれば、装着位置推定処理において、体の部位に対するジャイロセンサー2の装着姿勢を推定し、映像出力制御処理において、手本映像に付帯されている骨格情報から導出された角速度情報を、推定された装着姿勢に対応した角速度情報に補正し、ランニングを行っているユーザーに装着されたジャイロセンサー2から取得される角速度情報の各ポイントに対応するポイントのそれぞれが出現するタイミングを、上記骨格情報から導出された角速度情報であって装着姿勢に対応した角速度情報に補正された当該角速度情報に基づいて特定するので、手本の動作と当該手本と比較するユーザーの動作との同期を適切に行うことができる。
以上、本発明を実施形態に基づいて具体的に説明してきたが、本発明は上記実施形態に限定されるものではなく、その要旨を逸脱しない範囲で変更可能である。
例えば、上記実施形態において、運動としてランニングを一例に挙げて説明を行ったが、当該運動はランニングに限定されるものではなく、ウォーキング、ゴルフ(ゴルフのスイング)、野球(バットスイング)、ダンス、自転車などの運動を対象としてもよい。
また、上記実施形態において、ユーザーが装着するジャイロセンサー2は、1個に限定されるものではなく、2個以上のジャイロセンサー2をそれぞれ装着するようにしてもよい。
以上の説明では、本発明に係るプログラムのコンピュータ読み取り可能な媒体として記憶部13にフラッシュメモリ、EEPROM、HDDを使用した例を開示したが、この例に限定されない。その他のコンピュータ読み取り可能な媒体として、可搬型記録媒体を適用することが可能である。また、本発明に係るプログラムのデータを通信回線を介して提供する媒体として、キャリアウエーブ(搬送波)も本発明に適用される。
本発明の実施の形態を説明したが、本発明の範囲は、上述の実施の形態に限定するものではなく、特許請求の範囲に記載された発明の範囲とその均等の範囲を含む。
以下に、この出願の願書に最初に添付した特許請求の範囲に記載した発明を付記する。付記に記載した請求項の項番は、この出願の願書に最初に添付した特許請求の範囲のとおりである。
〔付記〕
<請求項1>
運動を行っているユーザーを連続的に撮影した第1の映像データとともに、当該運動を行っているときのユーザーに装着された慣性センサーから得られるセンサーデータを出力する第1の出力手段と、
前記第1の出力手段によって出力されるセンサーデータの各ポイントに対応するポイントのそれぞれが出現するタイミングを、連続的に撮影された前記運動と同じ運動を行っている手本映像データに付帯している所定の運動情報に基づいて特定する特定手段と、
前記特定手段によって特定された前記ポイントのそれぞれが出現するタイミングに対応する前記手本映像データのフレーム画像を、前記第1の出力手段によって出力されるセンサーデータの各ポイントが出現するタイミングに合わせて出力する第2の出力手段と、
を備えることを特徴とする映像出力装置。
<請求項2>
前記慣性センサーが装着された体の部位を推定する推定手段と、
前記推定手段によって推定された前記体の部位に関する角速度情報を前記手本映像データに付帯している前記所定の運動情報から導出する第1の導出手段と、
を備え、
前記特定手段は、前記第1の出力手段によって出力される前記センサーデータとしての角速度情報の各ポイントに対応するポイントのそれぞれが出現するタイミングを、前記第1の導出手段によって導出された前記角速度情報に基づいて特定する、
ことを特徴とする請求項1に記載の映像出力装置。
<請求項3>
前記第2の出力手段は、前記特定手段によって特定された前記第1の導出手段により導出された前記角速度情報の各ポイントと第1の出力手段によって出力される前記角速度情報の各ポイントとの位置関係に基づいて、前記第1の映像データのフレーム画像が撮影されたタイミングに対応するタイミングを算出し、算出された当該タイミングに撮影された前記手本映像データのフレーム画像を出力する、
ことを特徴とする請求項2に記載の映像出力装置。
<請求項4>
前記推定手段は、更に、前記体の部位に対する前記慣性センサーの装着姿勢を推定し、
前記第1の導出手段によって導出された前記角速度情報を、前記推定手段によって推定された前記装着姿勢に対応した角速度情報に補正する補正手段を備え、
前記特定手段は、前記第1の出力手段によって出力される前記角速度情報の各ポイントに対応するポイントのそれぞれが出現するタイミングを、前記補正手段によって補正された前記装着姿勢に対応した角速度情報に基づいて特定する、
ことを特徴とする請求項2に記載の映像出力装置。
<請求項5>
前記慣性センサーを装着した前記ユーザーに任意の動作をさせた際の当該ユーザーを連続的に撮影した第2の映像データを取得する取得手段と、
前記取得手段によって取得された前記第2の映像データに基づいて、前記ユーザーの体の各部位の角速度情報を導出する第2の導出手段と、
を備え、
前記推定手段は、前記第2の導出手段によって導出された前記ユーザーの体の各部位の角速度情報と、前記任意の動作がなされている際に前記慣性センサーから得られた角速度情報とに基づいて、相関が最も高い角速度情報が導出された体の部位を前記慣性センサーが装着された体の部位として推定する、
ことを特徴とする請求項2~4のいずれか一項に記載の映像出力装置。
<請求項6>
前記第2の導出手段によって導出された前記ユーザーの体の各部位の角速度情報のうちの前記推定手段によって推定された前記体の部位の角速度情報と、前記任意の動作がなされている際に前記慣性センサーから得られた角速度情報とに基づいて、当該慣性センサーから得られた角速度情報が示す角速度の値が第1の閾値よりも大きく、且つ、当該慣性センサーから得られた角速度情報が示す角速度と、前記推定手段によって推定された前記体の部位の角速度情報が示す角速度と、の差の絶対値が第2の閾値よりも小さくなるタイミングの角速度情報を抽出する抽出手段と、
前記抽出手段によって抽出された角速度情報に基づいて、前記慣性センサーから得られた角速度情報が示す角速度と、前記推定手段によって推定された前記体の部位の角速度情報が示す角速度と、が一致する回転行列を導出する第3の導出手段と、
を備え、
前記推定手段は、前記第3の導出手段によって導出された回転行列に基づいて、前記慣性センサーの装着姿勢を推定する、
ことを特徴とする請求項5に記載の映像出力装置。
<請求項7>
運動を行っているユーザーを連続的に撮影した第1の映像データとともに、当該運動を行っているときのユーザーに装着された慣性センサーから得られるセンサーデータを出力する第1の出力工程と、
前記第1の出力工程によって出力されるセンサーデータの各ポイントに対応するポイントのそれぞれが出現するタイミングを、連続的に撮影された前記運動と同じ運動を行っている手本映像データに付帯している所定の運動情報に基づいて特定する特定工程と、
前記特定工程によって特定された前記ポイントのそれぞれが出現するタイミングに対応する前記手本映像データのフレーム画像を、前記第1の出力工程によって出力されるセンサーデータの各ポイントが出現するタイミングに合わせて出力する第2の出力工程と、
を含むことを特徴とする映像出力方法。
<請求項8>
コンピュータを、
運動を行っているユーザーを連続的に撮影した第1の映像データとともに、当該運動を行っているときのユーザーに装着された慣性センサーから得られるセンサーデータを出力する第1の出力手段、
前記第1の出力手段によって出力されるセンサーデータの各ポイントに対応するポイントのそれぞれが出現するタイミングを、連続的に撮影された前記運動と同じ運動を行っている手本映像データに付帯している所定の運動情報に基づいて特定する特定手段、
前記特定手段によって特定された前記ポイントのそれぞれが出現するタイミングに対応する前記手本映像データのフレーム画像を、前記第1の出力手段によって出力されるセンサーデータの各ポイントが出現するタイミングに合わせて出力する第2の出力手段、
として機能させることを特徴とするプログラム。
1 映像出力装置
11 CPU(第1の出力手段、特定手段、第2の出力手段、推定手段、第1の導出手段、取得手段、第2の導出手段)

Claims (5)

  1. 運動を行っているユーザーを連続的に撮影した第1の映像データとともに、当該運動を行っているときのユーザーに装着された慣性センサーから得られるセンサーデータを出力する第1の出力手段と、
    前記第1の出力手段によって出力されるセンサーデータの各ポイントに対応するポイントのそれぞれが出現するタイミングを、連続的に撮影された前記運動と同じ運動を行っている手本映像データに付帯している所定の運動情報に基づいて特定する特定手段と、
    前記特定手段によって特定された前記ポイントのそれぞれが出現するタイミングに対応する前記手本映像データのフレーム画像を、前記第1の出力手段によって出力されるセンサーデータの各ポイントが出現するタイミングに合わせて出力する第2の出力手段と、
    前記慣性センサーが装着された体の部位を推定する推定手段と、
    前記推定手段によって推定された前記体の部位に関する角速度情報を前記手本映像データに付帯している前記所定の運動情報から導出する第1の導出手段と、
    前記慣性センサーを装着した前記ユーザーに任意の動作をさせた際の当該ユーザーを連続的に撮影した第2の映像データを取得する取得手段と、
    前記取得手段によって取得された前記第2の映像データに基づいて、前記ユーザーの体の各部位の角速度情報を導出する第2の導出手段と、
    前記第2の導出手段によって導出された前記ユーザーの体の各部位の角速度情報のうちの前記推定手段によって推定された前記体の部位の角速度情報と、前記任意の動作がなされている際に前記慣性センサーから得られた角速度情報とに基づいて、当該慣性センサーから得られた角速度情報が示す角速度の値が第1の閾値よりも大きく、且つ、当該慣性センサーから得られた角速度情報が示す角速度と、前記推定手段によって推定された前記体の部位の角速度情報が示す角速度と、の差の絶対値が第2の閾値よりも小さくなるタイミングの角速度情報を抽出する抽出手段と、
    前記抽出手段によって抽出された角速度情報に基づいて、前記慣性センサーから得られた角速度情報が示す角速度と、前記推定手段によって推定された前記体の部位の角速度情報が示す角速度と、が一致する回転行列を導出する第3の導出手段と、
    を備え、
    前記特定手段は、前記第1の出力手段によって出力される前記センサーデータとしての角速度情報の各ポイントに対応するポイントのそれぞれが出現するタイミングを、前記第1の導出手段によって導出された前記角速度情報に基づいて特定し、
    前記推定手段は、前記第2の導出手段によって導出された前記ユーザーの体の各部位の角速度情報と、前記任意の動作がなされている際に前記慣性センサーから得られた角速度情報とに基づいて、相関が最も高い角速度情報が導出された体の部位を前記慣性センサーが装着された体の部位として推定し、前記第3の導出手段によって導出された回転行列に基づいて、前記慣性センサーの装着姿勢を推定する、
    ことを特徴とする映像出力装置。
  2. 前記第2の出力手段は、前記特定手段によって特定された前記第1の導出手段により導出された前記角速度情報の各ポイントと第1の出力手段によって出力される前記角速度情報の各ポイントとの位置関係に基づいて、前記第1の映像データのフレーム画像が撮影されたタイミングに対応するタイミングを算出し、算出された当該タイミングに撮影された前記手本映像データのフレーム画像を出力する、
    ことを特徴とする請求項に記載の映像出力装置。
  3. 前記推定手段は、更に、前記体の部位に対する前記慣性センサーの装着姿勢を推定し、
    前記第1の導出手段によって導出された前記角速度情報を、前記推定手段によって推定された前記装着姿勢に対応した角速度情報に補正する補正手段を備え、
    前記特定手段は、前記第1の出力手段によって出力される前記角速度情報の各ポイントに対応するポイントのそれぞれが出現するタイミングを、前記補正手段によって補正された前記装着姿勢に対応した角速度情報に基づいて特定する、
    ことを特徴とする請求項に記載の映像出力装置。
  4. 運動を行っているユーザーを連続的に撮影した第1の映像データとともに、当該運動を行っているときのユーザーに装着された慣性センサーから得られるセンサーデータを出力する第1の出力工程と、
    前記第1の出力工程によって出力されるセンサーデータの各ポイントに対応するポイントのそれぞれが出現するタイミングを、連続的に撮影された前記運動と同じ運動を行っている手本映像データに付帯している所定の運動情報に基づいて特定する特定工程と、
    前記特定工程によって特定された前記ポイントのそれぞれが出現するタイミングに対応する前記手本映像データのフレーム画像を、前記第1の出力工程によって出力されるセンサーデータの各ポイントが出現するタイミングに合わせて出力する第2の出力工程と、
    前記慣性センサーが装着された体の部位を推定する推定工程と、
    前記推定工程によって推定された前記体の部位に関する角速度情報を前記手本映像データに付帯している前記所定の運動情報から導出する第1の導出工程と、
    前記慣性センサーを装着した前記ユーザーに任意の動作をさせた際の当該ユーザーを連続的に撮影した第2の映像データを取得する取得工程と、
    前記取得工程によって取得された前記第2の映像データに基づいて、前記ユーザーの体の各部位の角速度情報を導出する第2の導出工程と、
    前記第2の導出工程によって導出された前記ユーザーの体の各部位の角速度情報のうちの前記推定工程によって推定された前記体の部位の角速度情報と、前記任意の動作がなされている際に前記慣性センサーから得られた角速度情報とに基づいて、当該慣性センサーから得られた角速度情報が示す角速度の値が第1の閾値よりも大きく、且つ、当該慣性センサーから得られた角速度情報が示す角速度と、前記推定工程によって推定された前記体の部位の角速度情報が示す角速度と、の差の絶対値が第2の閾値よりも小さくなるタイミングの角速度情報を抽出する抽出工程と、
    前記抽出工程によって抽出された角速度情報に基づいて、前記慣性センサーから得られた角速度情報が示す角速度と、前記推定工程によって推定された前記体の部位の角速度情報が示す角速度と、が一致する回転行列を導出する第3の導出工程と、
    を含み、
    前記特定工程は、前記第1の出力工程によって出力される前記センサーデータとしての角速度情報の各ポイントに対応するポイントのそれぞれが出現するタイミングを、前記第1の導出工程によって導出された前記角速度情報に基づいて特定し、
    前記推定工程は、前記第2の導出工程によって導出された前記ユーザーの体の各部位の角速度情報と、前記任意の動作がなされている際に前記慣性センサーから得られた角速度情報とに基づいて、相関が最も高い角速度情報が導出された体の部位を前記慣性センサーが装着された体の部位として推定し、前記第3の導出工程によって導出された回転行列に基づいて、前記慣性センサーの装着姿勢を推定する、
    ことを特徴とする映像出力方法。
  5. コンピュータを、
    運動を行っているユーザーを連続的に撮影した第1の映像データとともに、当該運動を行っているときのユーザーに装着された慣性センサーから得られるセンサーデータを出力する第1の出力手段、
    前記第1の出力手段によって出力されるセンサーデータの各ポイントに対応するポイントのそれぞれが出現するタイミングを、連続的に撮影された前記運動と同じ運動を行っている手本映像データに付帯している所定の運動情報に基づいて特定する特定手段、
    前記特定手段によって特定された前記ポイントのそれぞれが出現するタイミングに対応する前記手本映像データのフレーム画像を、前記第1の出力手段によって出力されるセンサーデータの各ポイントが出現するタイミングに合わせて出力する第2の出力手段、
    前記慣性センサーが装着された体の部位を推定する推定手段、
    前記推定手段によって推定された前記体の部位に関する角速度情報を前記手本映像データに付帯している前記所定の運動情報から導出する第1の導出手段、
    前記慣性センサーを装着した前記ユーザーに任意の動作をさせた際の当該ユーザーを連続的に撮影した第2の映像データを取得する取得手段、
    前記取得手段によって取得された前記第2の映像データに基づいて、前記ユーザーの体の各部位の角速度情報を導出する第2の導出手段、
    前記第2の導出手段によって導出された前記ユーザーの体の各部位の角速度情報のうちの前記推定手段によって推定された前記体の部位の角速度情報と、前記任意の動作がなされている際に前記慣性センサーから得られた角速度情報とに基づいて、当該慣性センサーから得られた角速度情報が示す角速度の値が第1の閾値よりも大きく、且つ、当該慣性センサーから得られた角速度情報が示す角速度と、前記推定手段によって推定された前記体の部位の角速度情報が示す角速度と、の差の絶対値が第2の閾値よりも小さくなるタイミングの角速度情報を抽出する抽出手段、
    前記抽出手段によって抽出された角速度情報に基づいて、前記慣性センサーから得られた角速度情報が示す角速度と、前記推定手段によって推定された前記体の部位の角速度情報が示す角速度と、が一致する回転行列を導出する第3の導出手段、
    として機能させ、
    前記特定手段は、前記第1の出力手段によって出力される前記センサーデータとしての角速度情報の各ポイントに対応するポイントのそれぞれが出現するタイミングを、前記第1の導出手段によって導出された前記角速度情報に基づいて特定し、
    前記推定手段は、前記第2の導出手段によって導出された前記ユーザーの体の各部位の角速度情報と、前記任意の動作がなされている際に前記慣性センサーから得られた角速度情報とに基づいて、相関が最も高い角速度情報が導出された体の部位を前記慣性センサーが装着された体の部位として推定し、前記第3の導出手段によって導出された回転行列に基づいて、前記慣性センサーの装着姿勢を推定する、
    ことを特徴とするプログラム。
JP2019083511A 2019-04-25 2019-04-25 映像出力装置、映像出力方法及びプログラム Active JP7275811B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019083511A JP7275811B2 (ja) 2019-04-25 2019-04-25 映像出力装置、映像出力方法及びプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019083511A JP7275811B2 (ja) 2019-04-25 2019-04-25 映像出力装置、映像出力方法及びプログラム

Publications (2)

Publication Number Publication Date
JP2020178860A JP2020178860A (ja) 2020-11-05
JP7275811B2 true JP7275811B2 (ja) 2023-05-18

Family

ID=73022651

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019083511A Active JP7275811B2 (ja) 2019-04-25 2019-04-25 映像出力装置、映像出力方法及びプログラム

Country Status (1)

Country Link
JP (1) JP7275811B2 (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
TWI832584B (zh) * 2022-11-25 2024-02-11 陳 潔玲 智能跑步機

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6514081B1 (en) 1999-08-06 2003-02-04 Jeffrey L. Mengoli Method and apparatus for automating motion analysis
US20080190202A1 (en) 2006-03-03 2008-08-14 Garmin Ltd. Method and apparatus for determining the attachment position of a motion sensing apparatus
US20130041291A1 (en) 2010-04-23 2013-02-14 Cyrille Soubeyrat System for analysing a user's strides
JP2014110832A (ja) 2012-12-05 2014-06-19 Seiko Epson Corp 運動解析システム及び運動解析方法
JP2015119833A (ja) 2013-12-24 2015-07-02 カシオ計算機株式会社 運動支援システム及び運動支援方法、運動支援プログラム
JP2016112108A (ja) 2014-12-12 2016-06-23 カシオ計算機株式会社 運動情報表示システム及び運動情報表示方法、運動情報表示プログラム
JP2018153295A (ja) 2017-03-16 2018-10-04 セイコーエプソン株式会社 運動解析装置、運動解析方法および運動解析システム

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6514081B1 (en) 1999-08-06 2003-02-04 Jeffrey L. Mengoli Method and apparatus for automating motion analysis
US20080190202A1 (en) 2006-03-03 2008-08-14 Garmin Ltd. Method and apparatus for determining the attachment position of a motion sensing apparatus
US20130041291A1 (en) 2010-04-23 2013-02-14 Cyrille Soubeyrat System for analysing a user's strides
JP2014110832A (ja) 2012-12-05 2014-06-19 Seiko Epson Corp 運動解析システム及び運動解析方法
JP2015119833A (ja) 2013-12-24 2015-07-02 カシオ計算機株式会社 運動支援システム及び運動支援方法、運動支援プログラム
JP2016112108A (ja) 2014-12-12 2016-06-23 カシオ計算機株式会社 運動情報表示システム及び運動情報表示方法、運動情報表示プログラム
JP2018153295A (ja) 2017-03-16 2018-10-04 セイコーエプソン株式会社 運動解析装置、運動解析方法および運動解析システム

Also Published As

Publication number Publication date
JP2020178860A (ja) 2020-11-05

Similar Documents

Publication Publication Date Title
JP5314049B2 (ja) 写真画像の品質を改善する方法および装置
CN100474339C (zh) 人物判定装置
KR101503761B1 (ko) 오브젝트의 정보를 표시하는 정보 처리 장치, 정보 처리 방법 및 기록 매체
JP5959923B2 (ja) 検出装置、その制御方法、および制御プログラム、並びに撮像装置および表示装置
CN107613867B (zh) 动作显示系统以及记录介质
JP6688975B2 (ja) 監視装置及び監視システム
US20100145232A1 (en) Methods and apparatuses for correcting sport postures captured by a digital image processing apparatus
WO2019142329A1 (ja) 情報処理装置、情報処理システム、情報処理方法、及びプログラム
KR20220062461A (ko) 객체 동작 기반의 애니메이션을 생성하는 장치 및 방법
JP7275811B2 (ja) 映像出力装置、映像出力方法及びプログラム
JP2014146238A (ja) 人物検出追跡装置、人物検出追跡方法、および人物検出追跡プログラム
JP2019045967A (ja) 姿勢推定装置、方法、及びプログラム
JP7216222B2 (ja) 情報処理装置、情報処理装置の制御方法、及びプログラム
US20220084244A1 (en) Information processing apparatus, information processing method, and program
JP7113274B2 (ja) 下肢筋力推定システム、下肢筋力推定方法、及び、プログラム
JP6604509B2 (ja) 撮像装置、被写体追尾方法、及びプログラム
KR101499397B1 (ko) 동영상 분석기능을 갖는 모바일 단말기
JP2018180894A (ja) 情報処理装置、情報処理方法及びプログラム
JP7343237B2 (ja) 追跡方法
JP7275807B2 (ja) 動作解析装置、動作解析方法及びプログラム
WO2023175945A1 (ja) 動作評価装置、動作評価方法、及び非一時的なコンピュータ可読媒体
US20250061588A1 (en) Information processing device, information processing method and program recording medium
JP7654344B1 (ja) 動き評価システム、動き評価方法
JP7323234B2 (ja) ガイド方法
US20230181970A1 (en) Method, device, and non-transitory computer-readable recording medium for estimating information regarding golf swing

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220413

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20230124

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230131

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230323

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230404

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230417

R150 Certificate of patent or registration of utility model

Ref document number: 7275811

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150