[go: up one dir, main page]

JP4102119B2 - Stride measuring device and stride measuring method - Google Patents

Stride measuring device and stride measuring method Download PDF

Info

Publication number
JP4102119B2
JP4102119B2 JP2002181826A JP2002181826A JP4102119B2 JP 4102119 B2 JP4102119 B2 JP 4102119B2 JP 2002181826 A JP2002181826 A JP 2002181826A JP 2002181826 A JP2002181826 A JP 2002181826A JP 4102119 B2 JP4102119 B2 JP 4102119B2
Authority
JP
Japan
Prior art keywords
foot
stride
subject
image
running surface
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2002181826A
Other languages
Japanese (ja)
Other versions
JP2004028635A (en
Inventor
崇宏 村越
剛弘 黒野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hamamatsu Photonics KK
Original Assignee
Hamamatsu Photonics KK
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hamamatsu Photonics KK filed Critical Hamamatsu Photonics KK
Priority to JP2002181826A priority Critical patent/JP4102119B2/en
Publication of JP2004028635A publication Critical patent/JP2004028635A/en
Application granted granted Critical
Publication of JP4102119B2 publication Critical patent/JP4102119B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Landscapes

  • Measurement Of Distances Traversed On The Ground (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)

Description

【0001】
【発明の属する技術分野】
本発明は、トレッドミル等の走行面上を歩行又は走行する被験者の歩幅を測定する歩幅測定装置及び歩幅測定方法に関する。
【0002】
【従来の技術】
近年、スポーツクラブ等において、適切な速度で駆動されるベルトの走行面上を被験者が走行(以下、単に「走行」という場合は歩行を含む)してトレーニング等を行うための、いわゆるトレッドミルが普及している。そして、このトレッドミルの走行面上を走行する被験者の歩幅は、被験者の走行姿勢等を評価する指標として重要視されている。このような被験者の歩幅を測定する装置としては、例えば、実公平7−45239号公報に記載のものが知られている。この公報に記載の装置は、ベルトの駆動速度と足が走行面上に着地する時間間隔との関係から歩幅を取得するものである。
【0003】
【発明が解決しようとする課題】
しかしながら、上記公報に記載の装置にあっては、ベルトの駆動速度の測定や走行面上への足の着地を検知するためのセンサ等をトレッドミルに設ける必要があるため、構成が複雑化し高コストとなる。また、ベルトの駆動速度と着地の時間間隔とに基づいて歩幅を算出することになるため、測定される歩幅の精度が低下するおそれがある。
【0004】
そこで、本発明は、このような事情に鑑みてなされたものであり、簡易な構成でありながら歩幅を高精度に測定することのできる歩幅測定装置及び歩幅測定方法を提供することを目的とする。
【0005】
【課題を解決するための手段】
上記目的を達成するために、本発明に係る歩幅測定装置は、所定の速度で駆動されるベルトの走行面上を走行又は歩行する被験者の歩幅を測定する歩幅測定装置であって、被験者の足を含む画像を撮影する撮影手段と、走行面上に着地した一方の足の位置を画像に基づいて取得し、一方の足に続いて走行面上に着地した他方の足の位置を画像に基づいて取得し、一方の足の位置の時間変化に基づいて他方の足の位置に対する一方の足の位置を算出し、他方の足の位置と算出した一方の足の位置との相対距離を歩幅として算出する歩幅算出手段とを備えることを特徴とする。
【0006】
本発明に係る歩幅測定装置によれば、被験者の足を含む画像を撮影し、この画像に基づいて走行面上に順次着地した一方の足の位置と他方の足の位置とを取得し、一方の足の位置の時間変化に基づいて他方の足の位置に対する一方の足の位置を算出することによって、他方の足の位置と算出した一方の足の位置との相対距離を歩幅として算出することができる。したがって、ベルトの駆動速度の測定や走行面上への足の着地を検知するためのセンサ等を用いずに、簡易な構成によって歩幅を高精度に測定することが可能になる。
【0007】
本発明に係る歩幅測定装置において、歩幅算出手段は、画像に基づいて被験者の足の所定部の位置を取得し、所定部の位置の時間変化に基づいて被験者の足が走行面上に着地しているか否かを判断することが好ましい。被験者の足が走行面上に着地している間は、例えば、被験者の足の所定部である爪先の位置については、走行面に対して直角な方向における変位が極めて少ない。したがって、走行面上への足の着地を検知するためのセンサ等を用いなくても、足の所定部の位置の時間変化に基づいて走行面上への足の着地を検知することができる。
【0008】
また、本発明に係る歩幅測定装置は、走行面に対して所定の角度で設けられ走行面の傾きの変化に追従する位置較正マークを備え、歩幅算出手段は、位置較正マークに基づいて画像における座標を実空間における座標に座標変換することが好ましい。被験者の走行その他の理由によって走行面が上下動したり傾いたりした場合にも、走行面に対する位置較正マークの設置角度は一定に維持される。したがって、位置較正マークに基づいて画像における座標を実空間における座標に座標変換すれば、高精度な座標変換が可能になる。
【0009】
更に、本発明に係る歩幅測定装置は、被験者の走行姿勢又は歩行姿勢を被験者の正面又は側面の少なくとも一方向から撮影する姿勢撮影手段を備えることが好ましい。これにより、歩幅と同時に被験者の歩行姿勢又は走行姿勢を確認・評価することができ、歩行姿勢又は走行姿勢の改造等を効率良く行うことが可能になる。
【0010】
ところで、上記目的を達成するために、本発明は歩幅測定方法にも係り、所定の速度で駆動されるベルトの走行面上を走行又は歩行する被験者の歩幅を測定する歩幅測定方法であって、被験者の足を含む画像を撮影する撮影工程と、走行面上に着地した一方の足の位置を画像に基づいて取得し、一方の足に続いて走行面上に着地した他方の足の位置を画像に基づいて取得し、一方の足の位置の時間変化に基づいて他方の足の位置に対する一方の足の位置を算出し、他方の足の位置と算出した一方の足の位置との相対距離を歩幅として算出する歩幅算出工程とを備えることを特徴とする。
【0011】
なお、歩幅算出工程においては、画像に基づいて被験者の足の所定部の位置を取得し、所定部の位置の時間変化に基づいて被験者の足が走行面上に着地しているか否かを判断することが好ましい。
【0012】
また、歩幅算出工程においては、走行面に対して所定の角度で設けられ走行面の傾きの変化に追従する位置較正マークに基づいて、画像における座標を実空間における座標に座標変換することが好ましい。
【0013】
【発明の実施の形態】
以下、本発明に係る歩幅測定装置の好適な実施形態について、図面を参照して詳細に説明する。
【0014】
歩幅測定装置10の構成ついて説明する。図1に示すように、歩幅測定装置10は、トレッドミル100の走行面102上を走行する被験者Sの歩幅を測定する装置であって、位置較正マーク12,14、歩幅用ビデオカメラ(撮影手段)16、コンピュータ(歩幅算出手段)18及び表示部20を備えて構成されている。なお、トレッドミル100は、箱状のカバー104を有しており、このカバー104の上面には、矩形状の開口部が設けられている。カバー104内には、一対のローラ106,108が平行に配置され、このローラ106,108には、無端ベルトであるベルト110が掛け渡されている。ベルト110の上面は、カバー104の開口部から外部に臨んで走行面102を形成している。ローラ106は、駆動装置(図示しない)により回転駆動され、これにより、ベルト110は、所定の速度で矢印A方向に駆動される。
【0015】
位置較正マーク12,14は、トレッドミル100のカバー104の上面に設けられている。位置較正マーク12は、走行面102の手前側のカバー104上面に設けられ、矢印A方向に沿って所定の距離をとって設置された位置較正マーク12aと位置較正マーク12bとにより構成されている。また、位置較正マーク14は、走行面102の奥側のカバー104上面に設けられ、矢印A方向に沿って所定の距離をとって設置された位置較正マーク14aと位置較正マーク14bとにより構成されている。
【0016】
歩幅用ビデオカメラ16は、その撮影方向が矢印A方向と直角になるようにトレッドミル100の手前側に設置され、画像の水平方向が位置較正マーク12,14と平行になるように調整される。これは、撮影された画像に基づくコンピュータ18の演算処理を容易にするためである。そして、歩幅用ビデオカメラ16は、図2に示すように、トレッドミル100の走行面102上を走行する被験者Sの足F、及び位置較正マーク12,14を含む画像を撮影する。なお、歩幅用ビデオカメラ16の撮影方向が矢印A方向に対して直角以外の所定の角度で設置された場合は、当該所定の角度に基づいて座標変換処理を行えばよい。
【0017】
コンピュータ18は、歩幅用ビデオカメラ16により撮影された画像をフィールド単位で演算処理し(毎秒60コマ)、被験者Sの歩幅を算出する。表示部20は、LCDやCRT等の表示装置を備えて構成され、コンピュータ18による演算処理結果等を表示する。
【0018】
上述のコンピュータ18の構成について説明する。図3に示すように、コンピュータ18は、前足検出部22、前足位置算出部24、着地判定部26、後足位置算出部28、歩幅算出部30、各種データ算出部32、個人データ格納部34及びデータ比較部36を備えて構成されている。
【0019】
前足検出部22は、歩幅用ビデオカメラ16により撮影された画像に基づいて、左右交互に前方に振り出される被験者Sの足Fのうち前側に位置する足(以下「前足」という)の爪先Tfの座標を検出する(図2参照)。この爪先Tfの座標は、画像における座標(以下「画像座標」という)としてフィールド毎に検出される。ここで、前足検出部22による爪先Tfの画像座標の検出処理について、図4のフローチャートに従って具体的に説明する。
【0020】
まず、m番目のフィールド(以下「mフィールド」という)における画像を取得し、図2に示すように、当該画像から前足検出領域D1を抽出する(S402)。この前足検出領域D1は、トレッドミル100のベルト110上において前足の爪先Tfが存在すると想定される領域である。S402に続いて、図5(a)に示すように、前足検出領域D1における所定の画素列を被験者Sの前側から水平方向にスキャンし、ベルト110と異なる輝度値を有する画素(すなわち、足Fの像に相当する画素)を探索する(S404)。
【0021】
そして、ベルト110と異なる輝度値を有する画素が有ったか否かを判断し(S406)、無かった場合は、S404に戻り他の画素列についてS406までの処理を同様に行う。なお、S404においては、図5(a)に示すように、最初に前足検出領域D1における中心の画素列をスキャンし、続いて、図5(b)に示すように、上下の領域における中心の画素列を順次スキャンしていくというようにすると、ベルト110と異なる輝度値を有する画素を効率良く見つけ出すことができる。
【0022】
一方、S406の判断の結果、ベルト110と異なる輝度値を有する画素が有った場合は、図5(c)に示すように、更に上下の画素列をスキャンすることにより、足Fの像において前方に凸となっている前側のエッジE1を取得する(S408)。そして、前側のエッジE1において最も前方に位置する点の画像座標を、mフィールドにおける前足の爪先Tfの画像座標として検出する(S410)。
【0023】
なお、前足検出部22による爪先Tfの画像座標の検出処理は、上述のものに限らない。例えば、前足検出領域D1内においてベルト110と異なる輝度値を有する画素を水平方向に画素積算し、そのプロファイルに基づいて爪先Tfが存在する画素列を推定する。そして、推定した画素列においてベルト110と異なる輝度値を有する画素のうち最も前方に位置する画素を検出することによって、前足の爪先Tfの画像座標を検出してもよい。
【0024】
前足位置算出部24は、位置較正マーク12,14に基づいて、前足検出部22により検出された爪先Tfの画像座標を実空間における座標(以下「実空間座標」という)に座標変換し、前足の爪先Tfの実空間における位置(以下「実空間位置」という)を算出する。ここで、前足位置算出部24による爪先Tfの実空間位置の算出処理について具体的に説明する。なお、図6においては、位置較正マーク12aの位置を原点として位置較正マーク12a及び12b上にX軸を設定し、その直角方向にY軸を設定した。
【0025】
まず、図6に示すように、爪先Tfから走行面102上に垂線を下ろした際の走行面102との交点に相当する点P1の画像座標を取得する。それには、点P1のY座標を取得すればよい(点P1のX座標は、爪先TfのX座標に等しい)。そこで、図7に示すように、爪先Tfを基準として抽出された足底検出領域D2(足底が存在すると想定される領域であり、ここでは、爪先Tfを一頂点とする長方形領域)において、Y軸方向に画素列を順次スキャンして足底のエッジE2を取得し、このエッジE2の最頻値を点P1のY座標として取得する。
【0026】
なお、点P1のY座標は足底のY座標となるため、足Fが走行面102上に着地していない場合は、点P1のY座標の精度が低下することになる。しかし、歩幅の算出においては、着地判定部26により着地判定が行われ、着地している場合のデータのみが用いられることになるため、着地していない場合の精度の低いデータを無視することができる。
【0027】
点P1の画像座標を取得した後、図6に示すように、位置較正マーク12a及び14a上を通る直線と位置較正マーク12b及び14b上を通る直線との交点である点Pcの画像座標を算出し、この点Pc及び点P1を通る直線とX軸との交点である点P2の画像座標を算出する。そして、位置較正マーク12aから位置較正マーク12bまでの実空間における距離と画像における距離との比に基づいて、点P2のX座標を画像座標から実空間座標に座標変換し、前足の爪先Tfの実空間位置を算出する。すなわち、前足の爪先Tfの実空間位置は、図2の矢印A方向に沿っての位置較正マーク12aから前足の爪先Tfまでの距離となる。
【0028】
そして、前足位置算出部24は、前足の爪先Tfの実空間位置をフィールド毎に算出し、新たに算出を行ったフィールドから過去4秒間分のフィールドについて爪先Tfの実空間位置を記憶する。これは、n歩目の歩幅を算出する際に、一歩前、すなわちn−1歩目の爪先Tfの実空間位置を用いるからであり、ストライド時間(一歩に要する時間)として長めの2秒を想定し、その倍の過去4秒間分のフィールドについて爪先Tfの実空間位置を記憶するものである。
【0029】
このように、前足位置算出部24による爪先Tfの実空間位置の算出処理は、位置較正マーク12,14を基準として設定された画像座標系に基づいて行われる。そして、位置較正マーク12,14は、トレッドミル100の走行面102に対して平行に設けられ、且つ走行面102の傾きの変化に追従するため、図8に示すように、走行面102の傾きを変更可能なトレッドミル100において走行面102の傾きを変えた場合や、被験者Sの走行による振動によって走行面102が上下動した場合にも、位置較正マーク12,14は走行面102に対して平行に維持される。したがって、位置較正マーク12,14に基づいて爪先Tfの画像座標を実空間座標に座標変換すれば、高精度な座標変換が可能になる。
【0030】
なお、トレッドミル100の近くに歩幅用ビデオカメラ16を設置しなければならない場合に、通常のレンズでは撮影範囲が不十分になるおそれがある。そのような場合は、広角のレンズを用いて十分な撮影範囲を確保し、取得した爪先Tfの画像座標に対して歪曲収差の補正を行い、その後、実空間座標への座標変換を行えばよい。
【0031】
着地判定部26は、被験者Sの前足が走行面102上に着地しているか否かをフィールド毎に判定する。例えば、mフィールドについて着地判定を行う場合は、mフィールドにおいて取得した爪先Tfの画像座標と、m−1フィールド及びm−2フィールドにおいてそれぞれ取得した爪先Tfの画像座標とを比較する。そして、爪先TfのX座標が単調増加し、且つ爪先TfのY座標が一定である場合に、mフィールドにおける被験者Sの前足は走行面102上に着地していると判定する。この着地判定部26により着地判定されたmフィールドにおける爪先Tfの実空間位置をmフィールドにおける前足の着地位置とする。
【0032】
このように、走行面102上への足の着地を検知するためのセンサ等を用いなくても、爪先Tfの画像座標の時間変化に基づいて、被験者Sの前足の走行面102上への着地を検知することができる。なお、爪先TfのX座標が単調増加するという条件のみに基づいて、被験者Sの前足が走行面102上に着地しているか否かを判定することも可能である。ただし、トレッドミル100のベルト110の駆動速度が極端に遅い場合は、爪先TfのY座標が一定であるという条件を加えて判定することが望ましい。
【0033】
後足位置算出部28は、n−1歩目についての各フィールドにおける前足の着地位置の時間変化に基づいて、n歩目の前足の着地位置に対する後側に位置する足(以下「後足」という)の着地位置を算出する。このn歩目の後足はn−1歩目の前足であり、n歩目の後足の着地位置は、n歩目の前足が着地しているときに後足が実際に着地しているか否かとは無関係である。図9に、爪先Tfの実空間位置の時間変化グラフを示す。ここでは、トレッドミル100のベルト110の駆動速度が一定であることから、n−1歩目の前足の着地位置の時間変化Rを最小誤差2乗法で直線近似することによって、n歩目の前足が走行面102に着地した時点における後足の着地位置Lbを算出する。そして、n歩目が着地した時点における測定開始からの経過時間、前足の着地位置Lf及び後足の着地位置Lbを記憶する。
【0034】
歩幅算出部30は、後足位置算出部28により記憶されたn歩目が着地した時点における前足の着地位置Lfと後足の着地位置Lbとの差をとることによって、n歩目の歩幅を算出する。そして、n歩目が着地した時点における経過時間及びn歩目の歩幅を示すデータを被験者Sに対応付けて個人データ格納部34に記憶すると共に、必要に応じて表示部20に表示させる。
【0035】
各種データ算出部32は、n歩目が着地した時点における経過時間とn−1歩目が着地した時点における経過時間との差をとることによってn歩目のストライド時間を算出したり、単位時間をストライド時間で割ることによって単位時間当たりのピッチ数を算出したりする。そして、算出した各種データを被験者Sに対応付けて個人データ格納部34に記憶すると共に、必要に応じて表示部20に表示させる。
【0036】
個人データ格納部37は、歩幅算出部30や各種データ算出部32により算出された各種データを個人毎に記憶・保存する。また、データ比較部36は、被験者S自身の過去のデータ、他人のデータ又は標準データ等を個人データ格納部37から読み出し、現在測定を行っている被験者Sのデータと比較してその比較結果を表示部20に表示させる。
【0037】
次に、歩幅測定装置10の処理手順について、図10のフローチャートに従って説明する。
【0038】
歩幅用ビデオカメラ16が、トレッドミル100の走行面102上を走行する被験者Sの足F及び位置較正マーク12,14を含む画像の撮影を開始すると、コンピュータ18が、撮影された画像をフィールド単位で取得する(S1002)。そして、コンピュータ18においては、取得した画像、例えばmフィールドにおける画像に基づいて、前足検出部22が、被験者Sの前足の爪先Tfの画像座標を検出する(S1004)。続いて、前足位置算出部24が、位置較正マーク12,14に基づいて、前足検出部22により検出された爪先Tfの画像座標を実空間座標に座標変換し、爪先Tfの実空間位置を算出する(S1006)。
【0039】
そして、着地判定部26が、mフィールドにおける被験者Sの前足が走行面102上に着地しているか否かを判定し(S1008)、着地していると判定した場合は、着地していると確定した後(S1009)、S1002に戻りm+1フィールドについてS1008までの処理を同様に行う。一方、S1008の判定において、着地していないと判定した場合は、前回、すなわちm−1フィールドにおいて被験者Sの前足が走行面102上に着地していたか否かを判定する(S1010)。その結果、着地していなかった場合は、S1002に戻りm+1フィールドについてS1010までの処理を同様に行う。
【0040】
このS1010の判定において着地していたと判定されるまでは、S1002〜S1010までの処理をフィールド毎に繰り返し、これにより、n−1歩目及びn歩目についての各フィールドにおける前足の着地位置が取得される。そして、後足位置算出部28が、n−1歩目についての各フィールドにおける前足の着地位置の時間変化に基づいて、n歩目の前足が走行面102上に着地した時点における後足の着地位置を算出する(S1012)。続いて、歩幅算出部30が、後足位置算出部28により算出されたn歩目が着地した時点における前足の着地位置と後足の着地位置との差をとることによって、n歩目の歩幅を算出する(S1014)。更に、各種データ算出部32が、n歩目が着地した時点における経過時間とn−1歩目が着地した時点における経過時間との差をとることによってn歩目のストライド時間を算出したり、単位時間をストライド時間で割ることによって単位時間当たりのピッチ数を算出したりする(S1016)。
【0041】
そして、表示部20が、歩幅算出部30や各種データ算出部32により算出された各種データをディスプレイ上に表示する(S1018)。図11に、表示部20によるディスプレイ上の表示例を示す。この表示例は、トレッドミル100のベルト110の駆動速度を時速4kmから時速17kmまで徐々に加速し、その後再び時速4kmまで徐々に減速した際のデータである。上のグラフは、横軸に歩幅、縦軸にストライド時間を設定したものであり、駆動速度が遅いときはグラフの左上の領域にデータがプロットされ、加速するに従ってグラフの右下の領域にプロットが移動する様子が表されている。また、下のグラフは、各歩数における歩幅を示している。なお、ディスプレイ右上の各数値は、上のグラフの所定のプロットにおける各種データを示している。上下のグラフに基づいて、被験者Sの歩幅やストライド時間がベルト110の駆動速度に応じてどのように変化するのかを正確に把握することができる。
【0042】
以上説明したように、歩幅測定装置10によれば、被験者Sの足Fを含む画像を撮影し、この画像に基づいて、トレッドミル100の走行面102上に順次着地したn−1歩目及びn歩目についての各フィールドにおける前足の着地位置を取得し、n−1歩目についての各フィールドにおける前足の着地位置の時間変化に基づいて、n歩目の前足の着地位置に対する後足の着地位置を算出することによって、n歩目の前足の着地位置と後足の着地位置との相対距離を歩幅として算出することができる。したがって、トレッドミル100のベルト110の駆動速度の測定や走行面102上への足Fの着地を検知するためのセンサ等を用いずに、簡易な構成によって歩幅を高精度に測定することができる。
【0043】
また、歩幅測定装置10によれば、被験者Sの歩幅、ストライド時間、ピッチ数及び走行速度等を歩数毎に算出することができるため、被験者Sのバランス変動やペース配分の変動等を把握し、被験者Sの競技力向上等に役立てることが可能になる。しかも、被験者S自身の過去のデータ、他人のデータ又は標準データ等と現在測定を行っている被験者Sのデータとを比較してその比較結果を表示部20のディスプレイ上に表示させることができるため、被験者Sが比較結果を確認しながらトレーニングを行い、その場で自己の歩幅等を修正することが可能になる。なお、トレーニング中の被験者Sに対しては、ピッチ数等の比較データを音や光等によって知らせてもよい。
【0044】
更に、被験者Sに装着したマークを検知するセンサをトレッドミル100に設け、被験者Sの走行に伴う上下動をリアルタイム計測すれば、この時間波形に基づいて、被験者Sの足Fが走行面102に着地した時間及び走行面102から離れた時間を推定することができ、これにより、ストライド時間、滞空時間及び着地時間等を算出することも可能である。
【0045】
なお、図1に示すように、姿勢用ビデオカメラ(姿勢撮影手段)38を設置し、被験者Sの走行姿勢を正面、側面又は背面等から撮影し、撮影した画像を表示部20のディスプレイに同時に表示してもよい。これにより、歩幅と同時に被験者の歩行姿勢を確認・評価することができ、歩行姿勢の改造等を効率良く行うことが可能になる。
【0046】
以上、本発明の好適な実施形態について詳細に説明したが、本発明は上記実施形態に限定されない。例えば、上記実施形態において、前足位置算出部24による爪先Tfの実空間位置の算出処理は、位置較正マーク12,14を基準として設定された画像座標系に基づいて行われた。しかし、位置較正マーク12,14を用いなくても、歩幅用ビデオカメラ16による撮影距離や撮影倍率等の条件を予め記憶しておけば、爪先Tfの画像座標から爪先Tfの実空間位置を算出することができる。
【0047】
【発明の効果】
以上説明したように、本発明に係る歩幅測定装置は、所定の速度で駆動されるベルトの走行面上を走行又は歩行する被験者の歩幅を測定する歩幅測定装置であって、被験者の足を含む画像を撮影する撮影手段と、走行面上に着地した一方の足の位置を画像に基づいて取得し、一方の足に続いて走行面上に着地した他方の足の位置を画像に基づいて取得し、一方の足の位置の時間変化に基づいて他方の足の位置に対する一方の足の位置を算出し、他方の足の位置と算出した一方の足の位置との相対距離を歩幅として算出する歩幅算出手段とを備えることによって、簡易な構成でありながら歩幅を高精度に測定することができる。
【図面の簡単な説明】
【図1】本発明に係る歩幅測定装置の一実施形態を示す図である。
【図2】図1に示す歩幅測定装置の歩幅用ビデオカメラにより撮影された画像を示す図である。
【図3】図1に示す歩幅測定装置のコンピュータの機能的構成を示すブロック図である。
【図4】図1に示す歩幅測定装置の前足検出部による爪先の画像座標の検出処理を説明するためのフローチャートである。
【図5】図1に示す歩幅測定装置の前足検出部による爪先の画像座標の検出処理を説明するための図であり、(a)は、前足検出領域において所定の画素列を水平方向にスキャンする場合を示す概念図、(b)は、前足検出領域において(a)に続き他の画素列を水平方向にスキャンする場合を示す概念図、(c)は、足の像において前方に凸となっている前側のエッジを取得する場合を示す概念図である。
【図6】図1に示す歩幅測定装置の前足位置算出部による爪先の実空間位置の算出処理を説明するための図である。
【図7】図1に示す歩幅測定装置の前足位置算出部による足底のエッジの取得処理を説明するための図である。
【図8】図1に示す歩幅測定装置の前足位置算出部による位置較正マークに基づく画像座標系の設定処理を説明するための図である。
【図9】図1に示す歩幅測定装置の後足位置算出部による後足の着地位置の算出処理を説明するための図である。
【図10】図1に示す歩幅測定装置の処理手順を説明するためのフローチャートである。
【図11】図1に示す歩幅測定装置の表示部によるディスプレイ上の表示例を示す図である。
【符号の説明】
10…歩幅測定装置、12,12a,12b,14,14a,14b…位置較正マーク、16…歩幅用ビデオカメラ(撮影手段)、18…コンピュータ(歩幅算出手段)、20…表示部、22…前足検出部、24…前足位置算出部、26…着地判定部、28…後足位置算出部、30…歩幅算出部、38…姿勢用ビデオカメラ(姿勢撮影手段)、S…被験者、F…足、Tf…前足の爪先、Lf…前足の着地位置、Lb…後足の着地位置。
[0001]
BACKGROUND OF THE INVENTION
The present invention relates to a stride measuring device and a stride measuring method for measuring a stride of a subject walking or running on a running surface such as a treadmill.
[0002]
[Prior art]
2. Description of the Related Art In recent years, in sports clubs or the like, a so-called treadmill for performing training and the like by a subject running on a running surface of a belt driven at an appropriate speed (hereinafter simply referred to as “running” includes walking) is provided. It is popular. And the stride of the subject who runs on the running surface of the treadmill is regarded as important as an index for evaluating the running posture of the subject. As an apparatus for measuring such a subject's stride, for example, a device described in Japanese Utility Model Publication No. 7-45239 is known. The device described in this publication obtains the stride from the relationship between the belt driving speed and the time interval at which the foot lands on the running surface.
[0003]
[Problems to be solved by the invention]
However, in the apparatus described in the above publication, since it is necessary to provide a treadmill with a sensor for measuring the driving speed of the belt and detecting the landing of the foot on the running surface, the configuration becomes complicated and high. Cost. Further, since the stride is calculated based on the belt driving speed and the landing time interval, the accuracy of the measured stride may be reduced.
[0004]
Accordingly, the present invention has been made in view of such circumstances, and an object thereof is to provide a stride measuring apparatus and a stride measuring method capable of measuring a stride with high accuracy while having a simple configuration. .
[0005]
[Means for Solving the Problems]
In order to achieve the above object, a stride measuring apparatus according to the present invention is a stride measuring apparatus that measures the stride of a subject who runs or walks on a running surface of a belt driven at a predetermined speed. Based on the image, the position of the one foot landing on the running surface is acquired based on the image, and the position of the other foot landing on the running surface following the one foot is based on the image And calculating the position of one foot relative to the position of the other foot based on the time change of the position of one foot, and using the relative distance between the position of the other foot and the calculated position of the one foot as a stride And a stride calculating means for calculating.
[0006]
According to the stride measuring device according to the present invention, an image including a subject's foot is photographed, and the position of one foot and the position of the other foot sequentially landed on the running surface are acquired based on the image, Calculating the relative distance between the position of the other foot and the calculated position of one foot as a stride by calculating the position of one foot relative to the position of the other foot based on the time change of the position of the other foot Can do. Therefore, it is possible to measure the stride with high accuracy with a simple configuration without using a sensor for detecting the belt driving speed or detecting the landing of the foot on the running surface.
[0007]
In the stride measuring device according to the present invention, the stride calculating means acquires the position of the predetermined part of the subject's foot based on the image, and the subject's foot lands on the running surface based on the time change of the position of the predetermined part. It is preferable to determine whether or not. While the subject's foot is landing on the running surface, for example, the position of the toe, which is a predetermined portion of the subject's foot, has very little displacement in the direction perpendicular to the running surface. Therefore, it is possible to detect the landing of the foot on the traveling surface based on the time change of the position of the predetermined portion of the foot without using a sensor or the like for detecting the landing of the foot on the traveling surface.
[0008]
Further, the stride measuring device according to the present invention includes a position calibration mark that is provided at a predetermined angle with respect to the running surface and follows a change in the inclination of the running surface, and the stride calculating means is configured to display an image based on the position calibration mark in the image. It is preferable to convert the coordinates to coordinates in real space. Even when the traveling surface moves up and down or tilts due to the subject's traveling or other reasons, the installation angle of the position calibration mark with respect to the traveling surface is maintained constant. Therefore, if the coordinates in the image are converted into coordinates in the real space based on the position calibration mark, highly accurate coordinate conversion is possible.
[0009]
Furthermore, the stride measuring device according to the present invention preferably includes posture photographing means for photographing the subject's running posture or walking posture from at least one direction of the subject's front or side. Accordingly, the walking posture or running posture of the subject can be confirmed and evaluated simultaneously with the stride, and the walking posture or the running posture can be efficiently modified.
[0010]
By the way, in order to achieve the above object, the present invention also relates to a stride measurement method, which is a stride measurement method for measuring a stride of a subject running or walking on a running surface of a belt driven at a predetermined speed, A photographing process for photographing an image including a subject's foot, and a position of one foot landed on the running surface is acquired based on the image, and a position of the other foot landed on the running surface following one foot is obtained. Obtained based on the image, calculated the position of one foot relative to the position of the other foot based on the temporal change of the position of one foot, and the relative distance between the position of the other foot and the calculated position of the one foot And a step calculation step for calculating as a step.
[0011]
In the stride calculation step, the position of the predetermined part of the subject's foot is acquired based on the image, and it is determined whether the subject's foot has landed on the running surface based on the time change of the position of the predetermined part. It is preferable to do.
[0012]
In the step calculation step, it is preferable to convert the coordinates in the image into coordinates in the real space based on a position calibration mark that is provided at a predetermined angle with respect to the traveling surface and follows a change in the inclination of the traveling surface. .
[0013]
DETAILED DESCRIPTION OF THE INVENTION
DESCRIPTION OF EMBODIMENTS Hereinafter, a preferred embodiment of a stride measuring apparatus according to the present invention will be described in detail with reference to the drawings.
[0014]
A configuration of the stride measuring apparatus 10 will be described. As shown in FIG. 1, a stride measuring device 10 is a device that measures the stride of a subject S traveling on a running surface 102 of a treadmill 100, and includes position calibration marks 12, 14, a stride video camera (imaging means). ) 16, a computer (step length calculation means) 18, and a display unit 20. The treadmill 100 has a box-shaped cover 104, and a rectangular opening is provided on the upper surface of the cover 104. A pair of rollers 106 and 108 are arranged in parallel in the cover 104, and a belt 110 that is an endless belt is stretched around the rollers 106 and 108. The upper surface of the belt 110 faces the outside from the opening of the cover 104 to form a running surface 102. The roller 106 is rotationally driven by a driving device (not shown), whereby the belt 110 is driven in the arrow A direction at a predetermined speed.
[0015]
The position calibration marks 12 and 14 are provided on the upper surface of the cover 104 of the treadmill 100. The position calibration mark 12 is provided on the upper surface of the cover 104 on the near side of the traveling surface 102, and includes a position calibration mark 12a and a position calibration mark 12b installed at a predetermined distance along the arrow A direction. . In addition, the position calibration mark 14 is provided by the position calibration mark 14a and the position calibration mark 14b which are provided on the upper surface of the cover 104 on the back side of the traveling surface 102 and are installed at a predetermined distance along the arrow A direction. ing.
[0016]
The stride video camera 16 is installed on the front side of the treadmill 100 so that its shooting direction is perpendicular to the arrow A direction, and is adjusted so that the horizontal direction of the image is parallel to the position calibration marks 12 and 14. . This is to facilitate the calculation processing of the computer 18 based on the photographed image. Then, as shown in FIG. 2, the stride video camera 16 captures an image including the foot F of the subject S traveling on the traveling surface 102 of the treadmill 100 and the position calibration marks 12 and 14. When the shooting direction of the stride video camera 16 is set at a predetermined angle other than a right angle with respect to the arrow A direction, the coordinate conversion process may be performed based on the predetermined angle.
[0017]
The computer 18 computes the image taken by the stride video camera 16 in field units (60 frames per second), and calculates the stride of the subject S. The display unit 20 is configured to include a display device such as an LCD or a CRT, and displays an arithmetic processing result by the computer 18 and the like.
[0018]
The configuration of the computer 18 will be described. As shown in FIG. 3, the computer 18 includes a forefoot detection unit 22, a forefoot position calculation unit 24, a landing determination unit 26, a rear foot position calculation unit 28, a stride calculation unit 30, various data calculation units 32, and a personal data storage unit 34. And a data comparison unit 36.
[0019]
The forefoot detection unit 22 is based on an image taken by the stride video camera 16 and a toe Tf of a foot (hereinafter referred to as “front foot”) located on the front side of the foot F of the subject S swinging forward alternately left and right. Is detected (see FIG. 2). The coordinates of the toe Tf are detected for each field as coordinates in the image (hereinafter referred to as “image coordinates”). Here, the detection processing of the image coordinates of the toe Tf by the forefoot detection unit 22 will be specifically described with reference to the flowchart of FIG.
[0020]
First, an image in the mth field (hereinafter referred to as “m field”) is acquired, and as shown in FIG. 2, a forefoot detection region D1 is extracted from the image (S402). The forefoot detection area D1 is an area where the forefoot toe Tf is assumed to be present on the belt 110 of the treadmill 100. Subsequent to S402, as shown in FIG. 5A, a predetermined pixel row in the forefoot detection area D1 is scanned in the horizontal direction from the front side of the subject S, and pixels having a luminance value different from that of the belt 110 (that is, the foot F (Pixels corresponding to the image) are searched (S404).
[0021]
Then, it is determined whether or not there is a pixel having a luminance value different from that of the belt 110 (S406). If there is no pixel, the process returns to S404 and the processes up to S406 are similarly performed for other pixel columns. In S404, as shown in FIG. 5 (a), the center pixel row in the forefoot detection area D1 is first scanned, and then the center of the upper and lower areas is scanned as shown in FIG. 5 (b). If the pixel rows are sequentially scanned, pixels having luminance values different from those of the belt 110 can be found efficiently.
[0022]
On the other hand, if there is a pixel having a luminance value different from that of the belt 110 as a result of the determination in S406, the upper and lower pixel rows are further scanned in the image of the foot F as shown in FIG. A front edge E1 that is convex forward is acquired (S408). Then, the image coordinate of the point positioned most forward in the front edge E1 is detected as the image coordinate of the forefoot toe Tf in the m field (S410).
[0023]
Note that the detection processing of the image coordinates of the toe Tf by the forefoot detector 22 is not limited to the above. For example, pixels having a luminance value different from that of the belt 110 in the forefoot detection region D1 are pixel-integrated in the horizontal direction, and a pixel row where the toe Tf exists is estimated based on the profile. Then, the image coordinate of the forefoot toe Tf may be detected by detecting the pixel located in the forefront among the pixels having a luminance value different from that of the belt 110 in the estimated pixel row.
[0024]
The forefoot position calculation unit 24 converts the image coordinates of the toe Tf detected by the forefoot detection unit 22 into coordinates in the real space (hereinafter referred to as “real space coordinates”) based on the position calibration marks 12 and 14, and The position of the toe Tf in the real space (hereinafter referred to as “real space position”) is calculated. Here, the calculation process of the real space position of the toe Tf by the forefoot position calculation unit 24 will be specifically described. In FIG. 6, the X axis is set on the position calibration marks 12a and 12b with the position of the position calibration mark 12a as the origin, and the Y axis is set in the perpendicular direction.
[0025]
First, as shown in FIG. 6, the image coordinates of the point P1 corresponding to the intersection with the traveling surface 102 when a perpendicular is drawn from the toe Tf onto the traveling surface 102 are acquired. For this purpose, the Y coordinate of the point P1 may be acquired (the X coordinate of the point P1 is equal to the X coordinate of the toe tip Tf). Therefore, as shown in FIG. 7, in the sole detection area D <b> 2 (the area where the sole is assumed to exist and here is a rectangular area having the toe Tf as one vertex) extracted with the toe Tf as a reference, The pixel row is sequentially scanned in the Y-axis direction to obtain the sole edge E2, and the mode value of the edge E2 is obtained as the Y coordinate of the point P1.
[0026]
Since the Y coordinate of the point P1 is the Y coordinate of the sole, the accuracy of the Y coordinate of the point P1 decreases when the foot F does not land on the running surface 102. However, in the calculation of the stride, since the landing determination unit 26 performs the landing determination and only the data when landing is used, data with low accuracy when not landing may be ignored. it can.
[0027]
After obtaining the image coordinates of the point P1, as shown in FIG. 6, the image coordinates of the point Pc that is the intersection of the straight line passing over the position calibration marks 12a and 14a and the straight line passing through the position calibration marks 12b and 14b are calculated. Then, the image coordinates of the point P2, which is the intersection of the straight line passing through the points Pc and P1 and the X axis, are calculated. Then, based on the ratio of the distance in the real space from the position calibration mark 12a to the position calibration mark 12b and the distance in the image, the X coordinate of the point P2 is converted from the image coordinate to the real space coordinate, and the forefoot toe Tf The real space position is calculated. That is, the real space position of the forefoot toe Tf is the distance from the position calibration mark 12a to the forefoot toe Tf along the direction of arrow A in FIG.
[0028]
The forefoot position calculation unit 24 calculates the real space position of the forefoot toe Tf for each field, and stores the actual space position of the toe Tf for the field for the past 4 seconds from the newly calculated field. This is because when calculating the stride of the nth step, the real space position of the toe Tf one step before, that is, the (n−1) th step is used, and a longer stride time (time required for one step) is 2 seconds. It is assumed that the real space position of the toe Tf is stored for the field for the past 4 seconds which is twice as much as that.
[0029]
In this way, the calculation process of the real space position of the toe Tf by the forefoot position calculation unit 24 is performed based on the image coordinate system set with the position calibration marks 12 and 14 as a reference. The position calibration marks 12 and 14 are provided in parallel to the traveling surface 102 of the treadmill 100 and follow the change in the inclination of the traveling surface 102. Therefore, as shown in FIG. The position calibration marks 12 and 14 are moved relative to the traveling surface 102 even when the inclination of the traveling surface 102 is changed in the treadmill 100 that can change the position of the traveling surface 102 or when the traveling surface 102 moves up and down due to vibration caused by the traveling of the subject S. Maintained in parallel. Therefore, if the image coordinates of the toe Tf are converted into real space coordinates based on the position calibration marks 12 and 14, highly accurate coordinate conversion is possible.
[0030]
When the stride video camera 16 has to be installed near the treadmill 100, there is a possibility that the shooting range is insufficient with a normal lens. In such a case, a sufficient shooting range is secured using a wide-angle lens, distortion aberration correction is performed on the acquired image coordinates of the toe Tf, and then coordinate conversion to real space coordinates is performed. .
[0031]
The landing determination unit 26 determines for each field whether or not the forefoot of the subject S has landed on the running surface 102. For example, when the landing determination is performed for the m field, the image coordinates of the toe Tf acquired in the m field are compared with the image coordinates of the toe Tf acquired in the m-1 field and the m-2 field, respectively. Then, when the X coordinate of the toe Tf monotonously increases and the Y coordinate of the toe Tf is constant, it is determined that the forefoot of the subject S in the m field has landed on the running surface 102. The actual space position of the toe Tf in the m field determined by the landing determination unit 26 is set as the landing position of the forefoot in the m field.
[0032]
Thus, the landing on the running surface 102 of the forefoot of the subject S can be obtained based on the time change of the image coordinates of the toe Tf without using a sensor or the like for detecting the landing of the foot on the running surface 102. Can be detected. Note that it is also possible to determine whether or not the forefoot of the subject S has landed on the running surface 102 based only on the condition that the X coordinate of the toe Tf monotonously increases. However, when the driving speed of the belt 110 of the treadmill 100 is extremely low, it is desirable to make a determination by adding a condition that the Y coordinate of the toe tip Tf is constant.
[0033]
The hind foot position calculation unit 28, based on the temporal change in the front foot landing position in each field for the n-1th step, the foot located on the rear side with respect to the landing position of the forefoot for the nth step (hereinafter referred to as "hind foot"). ) Is calculated. The n-th hind leg is the n-1 th hind leg, and the n-th hind leg landing position is whether the hind leg actually lands when the n-th hind leg is landing. It has nothing to do with it. FIG. 9 shows a time change graph of the real space position of the toe Tf. Here, since the driving speed of the belt 110 of the treadmill 100 is constant, the time difference R of the landing position of the front foot of the (n−1) th step is linearly approximated by the minimum error square method, thereby the front foot of the nth step. The landing position Lb of the hind legs at the time of landing on the running surface 102 is calculated. Then, the elapsed time from the start of measurement at the time when the nth step has landed, the front foot landing position Lf, and the rear foot landing position Lb are stored.
[0034]
The stride calculation unit 30 calculates the stride of the nth step by calculating the difference between the landing position Lf of the front foot and the landing position Lb of the hind foot when the nth step stored by the hind leg position calculation unit 28 has landed. calculate. Then, the data indicating the elapsed time at the time when the nth step has landed and the step length of the nth step are stored in the personal data storage unit 34 in association with the subject S, and displayed on the display unit 20 as necessary.
[0035]
The various data calculation unit 32 calculates the stride time of the nth step by calculating the difference between the elapsed time at the time when the nth step has landed and the elapsed time at the time when the n−1th step has landed, or unit time Is divided by the stride time to calculate the number of pitches per unit time. Then, the calculated various data are stored in the personal data storage unit 34 in association with the subject S and displayed on the display unit 20 as necessary.
[0036]
The personal data storage unit 37 stores and stores various data calculated by the stride calculation unit 30 and the various data calculation unit 32 for each individual. In addition, the data comparison unit 36 reads out the past data of the subject S himself / herself, other person's data, standard data, etc. from the personal data storage unit 37 and compares the result with the data of the subject S who is currently measuring the comparison result. It is displayed on the display unit 20.
[0037]
Next, the processing procedure of the stride measuring apparatus 10 will be described according to the flowchart of FIG.
[0038]
When the stride video camera 16 starts capturing an image including the foot F and the position calibration marks 12 and 14 of the subject S traveling on the traveling surface 102 of the treadmill 100, the computer 18 captures the captured image in units of fields. (S1002). In the computer 18, the forefoot detection unit 22 detects the image coordinates of the toe Tf of the forefoot of the subject S based on the acquired image, for example, the image in the m field (S1004). Subsequently, the forefoot position calculation unit 24 converts the image coordinates of the toe Tf detected by the forefoot detection unit 22 into real space coordinates based on the position calibration marks 12 and 14, and calculates the real space position of the toe Tf. (S1006).
[0039]
Then, the landing determination unit 26 determines whether or not the forefoot of the subject S in the m field has landed on the running surface 102 (S1008), and if it determines that it has landed, the landing is confirmed. After that (S1009), the process returns to S1002, and the processes up to S1008 are similarly performed for the m + 1 field. On the other hand, if it is determined in S1008 that it has not landed, it is determined whether or not the forefoot of the subject S has landed on the running surface 102 in the previous time, that is, the m-1 field (S1010). As a result, if the vehicle has not landed, the process returns to S1002 and the processes up to S1010 are similarly performed for the m + 1 field.
[0040]
Until it is determined that the vehicle has landed in this determination of S1010, the processing from S1002 to S1010 is repeated for each field, thereby obtaining the landing position of the forefoot in each field for the n-1 step and the n step. Is done. Then, the hind leg position calculation unit 28 lands the hind legs at the time when the n th step front leg has landed on the running surface 102 based on the temporal change of the front leg landing position in each field for the (n−1) th step. The position is calculated (S1012). Subsequently, the stride calculation unit 30 takes the difference between the landing position of the forefoot and the landing position of the hind foot at the time when the nth step calculated by the hindfoot position calculation unit 28 has landed, so that the step length of the nth step is calculated. Is calculated (S1014). Furthermore, the various data calculation unit 32 calculates the stride time of the nth step by taking the difference between the elapsed time at the time when the nth step has landed and the elapsed time at the time when the n−1th step has landed, The number of pitches per unit time is calculated by dividing the unit time by the stride time (S1016).
[0041]
Then, the display unit 20 displays various data calculated by the stride calculation unit 30 and the various data calculation unit 32 on the display (S1018). FIG. 11 shows a display example on the display by the display unit 20. This display example is data when the driving speed of the belt 110 of the treadmill 100 is gradually accelerated from 4 km / h to 17 km / h and then gradually decelerated again to 4 km / h. In the upper graph, the horizontal axis is the stride length and the vertical axis is the stride time. When the driving speed is slow, the data is plotted in the upper left area of the graph, and as it accelerates, it is plotted in the lower right area of the graph. Is shown moving. The lower graph shows the stride at each step count. Each numerical value in the upper right of the display indicates various data in a predetermined plot of the upper graph. Based on the upper and lower graphs, it is possible to accurately grasp how the stride and stride time of the subject S change according to the driving speed of the belt 110.
[0042]
As described above, according to the stride measuring device 10, an image including the foot F of the subject S is taken, and on the basis of this image, the n-1th step that has landed sequentially on the running surface 102 of the treadmill 100 and The landing position of the forefoot in each field for the nth step is acquired, and the landing position of the hindfoot with respect to the landing position of the forefoot in the nth step based on the time change of the landing position of the forefoot in each field for the (n−1) th step By calculating the position, the relative distance between the landing position of the front foot and the landing position of the rear foot can be calculated as the stride. Accordingly, it is possible to measure the stride with high accuracy with a simple configuration without using the measurement of the driving speed of the belt 110 of the treadmill 100 or the sensor for detecting the landing of the foot F on the running surface 102. .
[0043]
Moreover, according to the stride measuring device 10, since the step length, stride time, pitch number, running speed, etc. of the subject S can be calculated for each step number, the balance variation of the subject S, the variation of the pace distribution, etc. are grasped. It can be used to improve the competitiveness of the subject S. In addition, the past data of the subject S himself / herself, other people's data, standard data, and the like can be compared with the data of the subject S currently being measured, and the comparison result can be displayed on the display of the display unit 20. The subject S can perform the training while confirming the comparison result, and can correct the own stride etc. on the spot. For the subject S during training, comparison data such as the number of pitches may be notified by sound or light.
[0044]
Further, if a treadmill 100 is provided with a sensor for detecting a mark attached to the subject S and the vertical movement accompanying the traveling of the subject S is measured in real time, the foot F of the subject S is placed on the traveling surface 102 based on this time waveform. The landing time and the time away from the traveling surface 102 can be estimated, whereby the stride time, the hover time, the landing time, and the like can be calculated.
[0045]
As shown in FIG. 1, a posture video camera (posture photographing means) 38 is installed, and the traveling posture of the subject S is photographed from the front, side, back, etc., and the photographed images are simultaneously displayed on the display of the display unit 20. It may be displayed. As a result, the walking posture of the subject can be confirmed and evaluated simultaneously with the stride, and the walking posture can be efficiently modified.
[0046]
As mentioned above, although preferred embodiment of this invention was described in detail, this invention is not limited to the said embodiment. For example, in the above embodiment, the calculation process of the real space position of the toe Tf by the forefoot position calculation unit 24 is performed based on the image coordinate system set with the position calibration marks 12 and 14 as a reference. However, even if the position calibration marks 12 and 14 are not used, the real space position of the toe Tf is calculated from the image coordinates of the toe Tf if conditions such as the shooting distance and the shooting magnification by the stride video camera 16 are stored in advance. can do.
[0047]
【The invention's effect】
As described above, the stride measuring device according to the present invention is a stride measuring device that measures the stride of a subject who travels or walks on the running surface of a belt driven at a predetermined speed, and includes the feet of the subject. An image capturing means for capturing an image and the position of one foot landed on the running surface are obtained based on the image, and the position of the other foot landed on the running surface following the one foot is obtained based on the image. Then, the position of one foot with respect to the position of the other foot is calculated based on the time change of the position of one foot, and the relative distance between the position of the other foot and the calculated position of the one foot is calculated as a stride. By including the stride calculation means, it is possible to measure the stride with high accuracy while having a simple configuration.
[Brief description of the drawings]
FIG. 1 is a diagram showing an embodiment of a stride measuring apparatus according to the present invention.
FIG. 2 is a diagram showing an image taken by a stride video camera of the stride measuring apparatus shown in FIG. 1;
FIG. 3 is a block diagram showing a functional configuration of a computer of the stride measuring apparatus shown in FIG. 1;
4 is a flowchart for explaining detection processing of image coordinates of a toe by a forefoot detecting unit of the stride measuring apparatus shown in FIG. 1. FIG.
5 is a diagram for explaining detection processing of image coordinates of a toe by a forefoot detection unit of the stride measuring apparatus shown in FIG. 1, and (a) scans a predetermined pixel row in a horizontal direction in the forefoot detection region; (B) is a conceptual diagram showing a case where another pixel row is scanned in the horizontal direction following (a) in the forefoot detection region, and (c) is a convex forward image in the foot image. It is a conceptual diagram which shows the case where the front edge which has become is acquired.
6 is a diagram for explaining processing for calculating a real space position of a toe by a forefoot position calculating unit of the stride measuring apparatus shown in FIG. 1; FIG.
7 is a diagram for explaining processing for acquiring a foot edge by a forefoot position calculating unit of the stride measuring apparatus shown in FIG. 1; FIG.
8 is a diagram for explaining an image coordinate system setting process based on a position calibration mark by a forefoot position calculation unit of the stride measuring apparatus shown in FIG. 1; FIG.
9 is a diagram for explaining a calculation process of a landing position of a hind leg by a hind leg position calculating unit of the stride measuring apparatus shown in FIG. 1. FIG.
10 is a flowchart for explaining a processing procedure of the stride measuring apparatus shown in FIG. 1. FIG.
11 is a diagram showing a display example on the display by the display unit of the stride measuring apparatus shown in FIG. 1. FIG.
[Explanation of symbols]
DESCRIPTION OF SYMBOLS 10 ... Stride measuring apparatus 12, 12a, 12b, 14, 14a, 14b ... Position calibration mark, 16 ... Stride video camera (photographing means), 18 ... Computer (step length calculating means), 20 ... Display part, 22 ... Forefoot Detection unit, 24 ... forefoot position calculation unit, 26 ... landing determination unit, 28 ... hind foot position calculation unit, 30 ... stride length calculation unit, 38 ... posture video camera (posture photographing means), S ... subject, F ... foot, Tf: forefoot toe, Lf: landing position of the front foot, Lb: landing position of the rear foot.

Claims (7)

所定の速度で駆動されるベルトの走行面上を走行又は歩行する被験者の歩幅を測定する歩幅測定装置であって、
前記被験者の足を含む画像を撮影する撮影手段と、
前記走行面上に着地した一方の足の位置を前記画像に基づいて取得し、前記一方の足に続いて前記走行面上に着地した他方の足の位置を前記画像に基づいて取得し、前記一方の足の位置の時間変化に基づいて前記他方の足の位置に対する前記一方の足の位置を算出し、前記他方の足の位置と算出した前記一方の足の位置との相対距離を歩幅として算出する歩幅算出手段とを備えることを特徴とする歩幅測定装置。
A stride measuring device for measuring a stride of a subject who runs or walks on a running surface of a belt driven at a predetermined speed,
Photographing means for photographing an image including the subject's feet;
Acquiring the position of one foot landed on the running surface based on the image, obtaining the position of the other foot landed on the running surface following the one foot, based on the image, and The position of the one foot relative to the position of the other foot is calculated based on the temporal change in the position of the one foot, and the relative distance between the position of the other foot and the calculated position of the one foot is used as a stride. A stride measuring device comprising stride calculating means for calculating.
前記歩幅算出手段は、前記画像に基づいて前記被験者の足の所定部の位置を取得し、前記所定部の位置の時間変化に基づいて前記被験者の足が前記走行面上に着地しているか否かを判断することを特徴とする請求項1に記載の歩幅測定装置。The stride calculation means acquires a position of a predetermined portion of the subject's foot based on the image, and whether or not the subject's foot has landed on the running surface based on a time change of the position of the predetermined portion. The stride measuring device according to claim 1, wherein the stride measuring device is determined. 前記走行面に対して所定の角度で設けられ前記走行面の傾きの変化に追従する位置較正マークを備え、
前記歩幅算出手段は、前記位置較正マークに基づいて前記画像における座標を実空間における座標に座標変換することを特徴とする請求項1又は2に記載の歩幅測定装置。
A position calibration mark provided at a predetermined angle with respect to the traveling surface and following a change in the inclination of the traveling surface;
The stride measuring device according to claim 1 or 2, wherein the stride calculation means performs coordinate conversion of coordinates in the image to coordinates in real space based on the position calibration mark.
前記被験者の走行姿勢又は歩行姿勢を前記被験者の正面又は側面の少なくとも一方向から撮影する姿勢撮影手段を備えることを特徴とする請求項1〜3のいずれか1項に記載の歩幅測定装置。The stride measuring device according to any one of claims 1 to 3, further comprising posture photographing means for photographing the running posture or the walking posture of the subject from at least one direction of the front or side of the subject. 所定の速度で駆動されるベルトの走行面上を走行又は歩行する被験者の歩幅を測定する歩幅測定方法であって、
前記被験者の足を含む画像を撮影する撮影工程と、
前記走行面上に着地した一方の足の位置を前記画像に基づいて取得し、前記一方の足に続いて前記走行面上に着地した他方の足の位置を前記画像に基づいて取得し、前記一方の足の位置の時間変化に基づいて前記他方の足の位置に対する前記一方の足の位置を算出し、前記他方の足の位置と算出した前記一方の足の位置との相対距離を歩幅として算出する歩幅算出工程とを備えることを特徴とする歩幅測定方法。
A stride measurement method for measuring a stride of a subject running or walking on a running surface of a belt driven at a predetermined speed,
A photographing step of photographing an image including the subject's feet;
Acquiring the position of one foot landed on the running surface based on the image, obtaining the position of the other foot landed on the running surface following the one foot, based on the image, and The position of the one foot relative to the position of the other foot is calculated based on the temporal change in the position of the one foot, and the relative distance between the position of the other foot and the calculated position of the one foot is used as a stride. A step length measuring method comprising: a step length calculating step.
前記歩幅算出工程においては、前記画像に基づいて前記被験者の足の所定部の位置を取得し、前記所定部の位置の時間変化に基づいて前記被験者の足が前記走行面上に着地しているか否かを判断することを特徴とする請求項5に記載の歩幅測定方法。In the step calculation step, the position of the predetermined part of the subject's foot is acquired based on the image, and the subject's foot is landed on the running surface based on the time change of the position of the predetermined part 6. The stride measuring method according to claim 5, wherein it is determined whether or not. 前記歩幅算出工程においては、前記走行面に対して所定の角度で設けられ前記走行面の傾きの変化に追従する位置較正マークに基づいて、前記画像における座標を実空間における座標に座標変換することを特徴とする請求項5又は6に記載の歩幅測定方法。In the step calculation step, the coordinates in the image are converted into coordinates in the real space based on a position calibration mark that is provided at a predetermined angle with respect to the traveling surface and follows a change in the inclination of the traveling surface. The step length measuring method according to claim 5 or 6.
JP2002181826A 2002-06-21 2002-06-21 Stride measuring device and stride measuring method Expired - Fee Related JP4102119B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2002181826A JP4102119B2 (en) 2002-06-21 2002-06-21 Stride measuring device and stride measuring method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2002181826A JP4102119B2 (en) 2002-06-21 2002-06-21 Stride measuring device and stride measuring method

Publications (2)

Publication Number Publication Date
JP2004028635A JP2004028635A (en) 2004-01-29
JP4102119B2 true JP4102119B2 (en) 2008-06-18

Family

ID=31178564

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2002181826A Expired - Fee Related JP4102119B2 (en) 2002-06-21 2002-06-21 Stride measuring device and stride measuring method

Country Status (1)

Country Link
JP (1) JP4102119B2 (en)

Families Citing this family (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7231834B2 (en) 2003-07-28 2007-06-19 Hamamatsu Photonics K. K. Stride measuring apparatus
JP2011019627A (en) * 2009-07-14 2011-02-03 Yasuhiro Shitan Fitness machine, method and program
JP6413299B2 (en) * 2014-03-31 2018-10-31 カシオ計算機株式会社 Image analysis apparatus, image analysis method, and program
JP6075365B2 (en) * 2014-12-09 2017-02-08 トヨタ自動車株式会社 Walking training system
JP6350268B2 (en) * 2014-12-22 2018-07-04 株式会社Jvcケンウッド Ground detection device, ground detection method and program
CN108885087B (en) * 2016-03-28 2020-05-26 日本电气方案创新株式会社 Measuring apparatus, measuring method, and computer-readable recording medium
JP6934154B2 (en) * 2017-01-20 2021-09-15 学校法人立命館 Evaluation measuring device, computer program, and evaluation method
JP2020086756A (en) * 2018-11-21 2020-06-04 富士ゼロックス株式会社 Autonomous mobile device and program
CN111265218A (en) * 2018-12-05 2020-06-12 阿里巴巴集团控股有限公司 Motion attitude data processing method and device and electronic equipment
CN114534201B (en) * 2020-11-26 2023-05-30 广州源动智慧体育科技有限公司 Stride monitoring method and device based on running machine, storage medium and intelligent equipment
CN116465546B (en) * 2023-04-20 2024-02-13 苏州芯思微半导体技术有限公司 Batch calibration measuring device of high-precision air pressure sensor

Also Published As

Publication number Publication date
JP2004028635A (en) 2004-01-29

Similar Documents

Publication Publication Date Title
JP4424869B2 (en) Stride measuring device
US20140229135A1 (en) Motion analysis apparatus and motion analysis method
US9132345B2 (en) Methods and systems for sports simulation
JP4102119B2 (en) Stride measuring device and stride measuring method
US20130171601A1 (en) Exercise assisting system
US9202386B2 (en) Center of gravity shifting training system
US20150140534A1 (en) Apparatus and method for gait training
WO2018158552A1 (en) System, method and markers for assessing athletic performance
JP2012065723A (en) Walking state display system or the like
KR101495961B1 (en) System and method of correcting golf pose
JP5828905B2 (en) Walking characteristic acquisition device
CN110731784B (en) A gait measurement system based on mobile platform and gait measurement method thereof
JP5572853B2 (en) Sensing device for moving object, sensing processing method, and virtual golf simulation device using the same
JP7148192B1 (en) Display control device, method and program
JP2015009032A (en) Lower limb shape change measuring apparatus, method, and program
US20040059264A1 (en) Footprint analyzer
KR101837142B1 (en) Apparatus for providing treadmill content using interaction with user and method thereof
KR101019902B1 (en) Sensing processing device, sensing processing method and virtual golf simulation device using the same
KR101019782B1 (en) Sensing processing device, sensing processing method and virtual golf simulation device using the same
KR102268954B1 (en) Method for detecting golf ball hitting and golf swing motion analysis apparatus using the same
JP4118118B2 (en) Plot method of test hit mark, flight distance chart, and golf club selection support device using flight distance chart
JP2004167002A (en) Instrument and method for measuring step
TWI736148B (en) Posture detecting system and method thereof
KR101019798B1 (en) Object motion sensing device and sensing method, and virtual golf simulation device using the same
KR101019824B1 (en) Object motion sensing device and sensing method, and virtual golf simulation device using the same

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20050401

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20080318

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20080321

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110328

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110328

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120328

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130328

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130328

Year of fee payment: 5

LAPS Cancellation because of no payment of annual fees