JP7057959B2 - 動作解析装置 - Google Patents
動作解析装置 Download PDFInfo
- Publication number
- JP7057959B2 JP7057959B2 JP2017153215A JP2017153215A JP7057959B2 JP 7057959 B2 JP7057959 B2 JP 7057959B2 JP 2017153215 A JP2017153215 A JP 2017153215A JP 2017153215 A JP2017153215 A JP 2017153215A JP 7057959 B2 JP7057959 B2 JP 7057959B2
- Authority
- JP
- Japan
- Prior art keywords
- motion
- neural network
- image
- depth image
- motion analysis
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 230000033001 locomotion Effects 0.000 title claims description 264
- 238000004458 analytical method Methods 0.000 title claims description 136
- 238000013528 artificial neural network Methods 0.000 claims description 152
- 230000005484 gravity Effects 0.000 claims description 43
- 238000009795 derivation Methods 0.000 claims description 36
- 238000006243 chemical reaction Methods 0.000 claims description 16
- 239000000284 extract Substances 0.000 claims description 11
- 238000000034 method Methods 0.000 description 72
- 230000008569 process Effects 0.000 description 39
- 238000012549 training Methods 0.000 description 16
- 238000011176 pooling Methods 0.000 description 15
- 238000012545 processing Methods 0.000 description 15
- 238000004891 communication Methods 0.000 description 12
- 238000010606 normalization Methods 0.000 description 11
- 230000004044 response Effects 0.000 description 9
- 238000000605 extraction Methods 0.000 description 6
- 230000008859 change Effects 0.000 description 5
- 238000010276 construction Methods 0.000 description 5
- 238000010586 diagram Methods 0.000 description 4
- 230000006870 function Effects 0.000 description 4
- 238000005259 measurement Methods 0.000 description 4
- 230000000694 effects Effects 0.000 description 3
- 238000011478 gradient descent method Methods 0.000 description 3
- 238000003384 imaging method Methods 0.000 description 3
- 238000012986 modification Methods 0.000 description 3
- 230000004048 modification Effects 0.000 description 3
- 230000003287 optical effect Effects 0.000 description 3
- 230000001360 synchronised effect Effects 0.000 description 3
- 241000272201 Columbiformes Species 0.000 description 2
- 230000001133 acceleration Effects 0.000 description 2
- 238000011161 development Methods 0.000 description 2
- 238000009499 grossing Methods 0.000 description 2
- 230000006872 improvement Effects 0.000 description 2
- 238000003062 neural network model Methods 0.000 description 2
- 238000012546 transfer Methods 0.000 description 2
- 102100039856 Histone H1.1 Human genes 0.000 description 1
- 101001035402 Homo sapiens Histone H1.1 Proteins 0.000 description 1
- 210000001015 abdomen Anatomy 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 238000013527 convolutional neural network Methods 0.000 description 1
- 238000009434 installation Methods 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
- 238000002360 preparation method Methods 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 230000035945 sensitivity Effects 0.000 description 1
- 238000002366 time-of-flight method Methods 0.000 description 1
- 210000000707 wrist Anatomy 0.000 description 1
Images
Landscapes
- Image Analysis (AREA)
Description
(1)距離画像センサにより前記物体の動作を捉えた深度画像を撮影するステップ。
(2)前記物体の動作を定量的に表す動作値を出力とするニューラルネットワークに、前記距離画像センサにより撮影された前記深度画像を入力することにより、前記動作値を導出するステップ。
(1)前記物体の動作を距離画像センサにより撮影した深度画像を取得するステップ。
(2)前記物体の動作を定量的に表す動作値を出力とするニューラルネットワークに、前記取得された深度画像を入力することにより、前記動作値を導出するステップ。
<1-1.動作解析システムの概要>
図1及び図2に、本実施形態に係る動作解析装置1を含む動作解析システム100の全体構成図を示す。動作解析システム100は、ゴルファー7によるゴルフクラブ5のスイング動作を動画として撮影し、当該動画に基づいてスイング動作を解析するためのシステムである。以上の撮影は、距離画像センサ2により行われる。動作解析装置1は、距離画像センサ2とともに動作解析システム100を構成し、距離画像センサ2により取得される深度画像を含む画像データを解析することにより、スイング動作を解析する。動作解析装置1による解析の結果は、ゴルファー7に適したゴルフクラブ5のフィッティングや、ゴルファー7のフォームの改善、ゴルフ用品の開発等、様々な用途で利用される。
<1-2-1.距離画像センサ>
距離画像センサ2は、ゴルファー7がゴルフクラブ5を試打する様子を二次元画像として撮影するとともに、被写体までの距離を測定する測距機能を有する三次元計測カメラである。従って、距離画像センサ2は、二次元画像とともに、深度画像を出力することができる。なお、ここでいう二次元画像とは、撮影空間の像をカメラの光軸に直交する平面内へ投影した画像である。また、深度画像とは、カメラの光軸方向の被写体の奥行きのデータ(深度データ)を、二次元画像と略同じ撮像範囲内の画素に割り当てた画像である。
図2を参照しつつ、動作解析装置1の構成について説明する。動作解析装置1は、ハードウェアとしては汎用のコンピュータであり、例えば、デスクトップ型コンピュータ、ノート型コンピュータ、タブレットコンピュータ、スマートフォンとして実現される。動作解析装置1は、CD-ROM、USBメモリ等のコンピュータで読み取り可能な記録媒体30から、或いはインターネット等のネットワークを介して、動作解析プログラム3を汎用のコンピュータにインストールすることにより製造される。動作解析プログラム3は、距離画像センサ2から送られてくる画像データに基づいてゴルフスイングを解析するためのソフトウェアであり、動作解析装置1に後述する動作を実行させる。
次に、図3を参照しつつ、後述する動作解析処理の中で使用されるニューラルネットワーク8のモデル構成について説明する。ニューラルネットワーク8は、上述したとおり、深度画像を入力とし、スイング動作を定量的に表す動作値を出力とするネットワークである。本実施形態では、ニューラルネットワーク8により、スイング動作中のゴルファー7の腰の回転動作が定量的に解析され、より具体的には、腰の回転角度が定量的に導出される。
以下、図4を参照しつつ、ゴルフスイングの動作解析処理について説明する。既に述べたとおり、本実施形態では、ニューラルネットワーク8に基づいて、スイング動作中のゴルファー7の腰の回転角度を定量的に表す動作値W1が導出される。なお、解析の対象となる画像データは、動画である。従って、以下、IR画像及び深度画像を、それぞれIRフレーム、深度フレームということがあり、単にフレームということもある。
次に、図10を参照しつつ、ニューラルネットワーク8の学習方法について説明する。以下では、ニューラルネットワーク8を構築するための学習用データセットについて説明した後、当該データセットに基づく学習処理の流れについて説明する。
学習用データセットは、距離画像センサ2により撮影される深度フレーム及びスケルトンデータと、当該深度フレーム及びスケルトンデータの撮影のタイミングでのゴルファー7の腰の回転角度(真値)との対のデータであり、このような学習用データセットが多数収集される。学習用データセットに含まれる回転角度(真値)は、ニューラルネットワーク8の学習時の教師信号となる。
次に、図10を参照しつつ、ニューラルネットワーク8の学習処理について説明する。まず、学習用データセットを取得するために、角速度センサ4を腰に取り付けたゴルファー7にゴルフクラブ5を試打させ、その様子を距離画像センサ2により動画として撮影する。このとき、好ましくは、学習の効果を高めるために、複数人のゴルファー7により多数回のスイング動作が実施される。そして、ステップS1と同様に、第1取得部14aが、距離画像センサ2から送られてくる時系列のIRフレーム、深度フレーム及びスケルトンデータを取得し、記憶部13内に格納する(ステップS21)。また、ステップS21では、スイング動作中の角速度センサ4により計測された時系列の角速度データも、動作解析装置1に送信される。そして、第2取得部14bが、この時系列の角速度データを取得し、これを時系列の腰の回転角度を表すデータ(腰の回転角度データ)に変換した後、記憶部13内に格納する。記憶部13内には、多数回のスイング動作に対応するIRフレーム、深度フレーム、スケルトンデータ及び回転角度データが格納される。このとき、IRフレーム、深度フレーム及びスケルトンデータと、回転角度データとの同期が取られ、同じタイミングでのデータは、互いに対応付けられて記憶部13内に格納される。
図11及び図12に、本実施形態に係る動作解析システム101の全体構成図を示す。これらの図をそれぞれ図1及び図2と比較すれば明らかなように、第2実施形態に係る動作解析システム101は、第1実施形態に係る動作解析システム100と多くの点で共通する。以下では、簡単のため、第1実施形態と共通の要素には同じ参照符号を付し、第1実施形態との相違点を中心に説明する。
図3と図13とを比較すれば明らかなとおり、ニューラルネットワーク8,108は、類似の構成を有する。両者の主たる相違点について述べると、ニューラルネットワーク108では、ゴルファー7の身体の重心移動量が2次元的に評価されるため、出力層88が2個の出力ユニットから構成される。一方の出力ユニットには、X方向(ゴルフボールの飛球線方向)の重心移動量を定量的に表す動作値W101が入力され、他方の出力ユニットには、Y方向(ゴルファー7の背から腹に向かう方向)の重心移動量を定量的に表す動作値W102が入力される。W101,W102は、以下の式に従って算出される。なお、下式中のv1,1,v1,2,・・・,v1,I2及びv2,1,v2,2,・・・,v2,I2は、重み係数であり、b101,b102は、バイアスである。
次に、図15を参照しつつ、第2実施形態に係るゴルフスイングの動作解析処理について説明する。既に述べたとおり、ここでは、ニューラルネットワーク8に基づいて、スイング動作中のゴルファー7の腰の回転角度を定量的に表す動作値W1が導出されるとともに、ニューラルネットワーク108に基づいて、スイング動作中のゴルファー7の身体の重心移動量を定量的に表す動作値W101,W102が導出される。さらに、ニューラルネットワーク208に基づいて、スイング動作中のゴルファー7の腰の回転角度を定量的に表す動作値W201も導出される。以下、図15の処理について説明するが、図15の処理は図4の処理を含み、新たなステップS102,S103,S105,S106,S203,S205,S206も図4の処理の一部のステップに類似する。よって、以下では、図4の説明を参照しつつ、主に両処理の相違点についての説明を行う。
次に、図21及び図22を参照しつつ、ニューラルネットワーク108,208の学習方法について説明する。以下では、ニューラルネットワーク108,208のそれぞれを構築するための学習用データセットについて説明するとともに、各データセットに基づく学習処理の流れについて説明する。
ニューラルネットワーク108を構築するための学習用データセットは、距離画像センサ2により取得される深度フレーム、スケルトンデータ及び人物領域画像と、これらが取得されるタイミングでのゴルファー7の重心移動量(真値)との対のデータであり、このような学習用データセットが多数収集される。学習用データセットに含まれる重心移動量(真値)は、ニューラルネットワーク108の学習時の教師信号となる。
次に、図21を参照しつつ、ニューラルネットワーク108の学習処理について説明する。まず、ニューラルネットワーク108を構築するための学習用データセットを取得するために、床反力計104上に乗ったゴルファー7にゴルフクラブ5を試打させ、その様子を距離画像センサ2により動画として撮影する。このとき、好ましくは、学習の効果を高めるために、複数人のゴルファー7により多数回のスイング動作が実施される。そして、ステップS1と同様に、第1取得部14aが、距離画像センサ2から送られてくる時系列のIRフレーム、深度フレーム、スケルトンデータ及び人物領域画像を取得し、記憶部13内に格納する(ステップS121)。また、ステップS121では、床反力計104により計測された時系列の床反力データも、動作解析装置1に送信される。そして、第2取得部14bが、この時系列の床反力データに基づいて、ゴルファー7の身体の重心移動量のデータ(以下、重心位置データ)を取得し、記憶部13内に格納する。このとき、IRフレーム、深度フレーム、スケルトンデータ及び人物領域画像と、重心位置データとの同期が取られ、同じタイミングでのデータは、互いに対応付けられて記憶部13内に格納される。
ニューラルネットワーク208を構築するための学習用データセットは、距離画像センサ2により取得される深度フレーム及びスケルトンデータと、これらが取得されるタイミングでのゴルファー7の肩の回転角度(真値)との対のデータであり、このような学習用データセットが多数収集される。学習用データセットに含まれる肩の回転角度(真値)は、ニューラルネットワーク208の学習時の教師信号となる。
図22は、ニューラルネットワーク208の学習処理の流れを示すフローチャートである。まず、ニューラルネットワーク208を構築するための学習用データセットを取得するために、角速度センサ204を肩に取り付けたゴルファー7にゴルフクラブ5を試打させ、その様子を距離画像センサ2により動画として撮影する。このとき、好ましくは、学習の効果を高めるために、複数人のゴルファー7により多数回のスイング動作が実施される。そして、ステップS1と同様に、第1取得部14aが、距離画像センサ2から送られてくる時系列のIRフレーム、深度フレーム及びスケルトンデータを取得し、記憶部13内に格納する(ステップS221)。また、ステップS221では、スイング動作中の角速度センサ204により計測された時系列の角速度データも、動作解析装置1に送信される。そして、第2取得部14bが、この時系列の角速度データを取得し、これを時系列の肩の回転角度を表すデータ(肩の回転角度データ)に変換した後、記憶部13内に格納する。記憶部13内には、多数回のスイング動作に対応するIRフレーム、深度フレーム、スケルトンデータ及び肩の回転角度データが格納される。このとき、IRフレーム、深度フレーム及びスケルトンデータと、回転角度データとの同期が取られ、同じタイミングでのデータは、互いに対応付けられて記憶部13内に格納される。
以上、本発明のいくつかの実施形態について説明したが、本発明は上記実施形態に限定されるものではなく、その趣旨を逸脱しない限りにおいて、種々の変更が可能である。例えば、以下の変更が可能である。また、以下の変形例の要旨は、適宜組み合わせることができる。
動作解析処理において導出される動作値は、注目部位の回転角度や位置(座標)に限られず、例えば、回転速度、回転加速度等であってもよいし、速度及び加速度等であってもよい。また、注目部位も、ゴルファー7の腰、肩及び重心に限らず、ゴルファー7の腕、頭等であってもよい。また、ゴルフスイングに限らず、任意の対象の任意の動作を解析することもできる。
距離画像センサは、深度画像のみを撮影するものであってもよいし、IR画像に代えてカラー画像を撮影するものであってもよい。後者の場合、距離画像センサには、可視光を受光する可視光受光部(例えば、RGBカメラ)を搭載すればよい。
第1実施形態では、腰の回転角度が算出され、第2実施形態では、腰の回転角度、肩の回転角度及び重心移動量が算出された。しかしながら、腰の回転角度、肩の回転角度及び重心移動量の3つの中から任意に選択される1又は複数の要素を算出するようにすることができる。例えば、腰の回転角度及び肩の回転角度のみを算出してもよいし、肩の回転角度及び重心移動量のみを算出してもよい。
2 距離画像センサ
3 動作解析プログラム
4,204 角速度センサ
104 床反力計
5 ゴルフクラブ
7 ゴルファー(物体)
8,108,208 ニューラルネットワーク
81 識別層
82 特徴抽出部
83A,84A 畳み込み層
85 ドロップアウト層
14a 第1取得部(取得部)
14b 第2取得部
14c 導出部
14d 学習部
100,101 動作解析システム
Claims (21)
- 物体の動作を解析するための動作解析装置であって、
前記物体の動作を距離画像センサにより撮影した深度画像を取得する取得部と、
前記物体の動作を定量的に表す動作値を出力とするニューラルネットワークに、前記取得部により取得された前記深度画像を入力することにより、前記動作値を導出する導出部と
を備え、
前記深度画像は、ゴルフスイングを撮影した画像である、
動作解析装置。 - 前記動作値は、ゴルファーの腰の回転角度である、
請求項1に記載の動作解析装置。 - 前記取得部は、前記距離画像センサにより計測された人体の骨組みを表すスケルトンデータをさらに取得し、
前記導出部は、前記スケルトンデータに基づいて、前記深度画像から前記腰の近傍の腰領域を抽出した後、前記腰領域の画像を前記ニューラルネットワークに入力する、
請求項2に記載の動作解析装置。 - 前記ニューラルネットワークは、前記深度画像から前記ゴルファーの腕を表す腕領域を無効化するドロップアウト層を有する、
請求項2又は3に記載の動作解析装置。 - 前記動作値は、ゴルファーの体重移動を表す値である、
請求項1に記載の動作解析装置。 - 前記取得部は、前記距離画像センサにより計測された人体の骨組みを表すスケルトンデータをさらに取得し、
前記導出部は、前記スケルトンデータに基づいて、前記深度画像から前記ゴルファーの近傍のゴルファー領域を抽出した後、前記ゴルファー領域の画像を前記ニューラルネットワークに入力する、
請求項5に記載の動作解析装置。 - 前記動作値は、ゴルファーの肩の回転角度である、
請求項1に記載の動作解析装置。 - 前記取得部は、前記距離画像センサにより計測された人体の骨組みを表すスケルトンデータをさらに取得し、
前記導出部は、前記スケルトンデータに基づいて、前記深度画像から前記肩の近傍の肩領域を抽出した後、前記肩領域の画像を前記ニューラルネットワークに入力する、
請求項7に記載の動作解析装置。 - 前記ニューラルネットワークは、畳み込み層を有する、
請求項1から8のいずれかに記載の動作解析装置。 - 前記取得部は、時系列の前記深度画像を取得し、
前記導出部は、前記ニューラルネットワークに前記時系列の深度画像を入力することにより、時系列の前記動作値を導出する、
請求項1から9のいずれかに記載の動作解析装置。 - 前記取得部は、前記距離画像センサにより計測された人体の骨組みを表すスケルトンデータをさらに取得し、
前記導出部は、前記スケルトンデータに基づいて、前記深度画像から前記物体の注目部位の近傍の注目領域を抽出した後、前記注目領域の画像を前記ニューラルネットワークに入力する、
請求項1、9及び10のいずれかに記載の動作解析装置。 - 前記ニューラルネットワークは、前記深度画像から前記物体の注目していない部位を表す非注目領域を無効化するドロップアウト層を有する、
請求項1及び9~11のいずれかに記載の動作解析装置。 - 物体の動作を解析するための動作解析装置であって、
前記物体の動作を距離画像センサにより撮影した深度画像を取得する取得部と、
前記物体の動作を定量的に表す動作値を出力とするニューラルネットワークに、前記取得部により取得された前記深度画像を入力することにより、前記動作値を導出する導出部と
を備え、
前記ニューラルネットワークは、前記深度画像から前記物体の注目していない部位を表す非注目領域を無効化するドロップアウト層を有する、
動作解析装置。 - 物体の動作を解析するためのモデルを構築するモデル構築装置であって、
前記物体の動作を距離画像センサにより撮影した多数の深度画像を取得する第1取得部と、
前記多数の深度画像にそれぞれ対応する、前記物体の動作を定量的に表す多数の動作値を取得する第2取得部と、
前記第1取得部により取得された前記多数の深度画像に基づいて、前記第2取得部により取得された前記多数の動作値を教師信号として、前記深度画像を入力とし、前記動作値を出力とするニューラルネットワークを学習する学習部と
を備え、
前記第2取得部は、前記物体に取り付けられた角速度センサの出力値から前記物体の回転角度を表す前記多数の動作値を取得する、
モデル構築装置。 - 物体の動作を解析するためのモデルを構築するモデル構築装置であって、
前記物体の動作を距離画像センサにより撮影した多数の深度画像を取得する第1取得部と、
前記多数の深度画像にそれぞれ対応する、前記物体の動作を定量的に表す多数の動作値を取得する第2取得部と、
前記第1取得部により取得された前記多数の深度画像に基づいて、前記第2取得部により取得された前記多数の動作値を教師信号として、前記深度画像を入力とし、前記動作値を出力とするニューラルネットワークを学習する学習部と
を備え、
前記第2取得部は、前記物体が乗る床反力計の出力値から前記物体の重心の位置を表す前記多数の動作値を取得する、
モデル構築装置。 - 物体の動作を解析するための動作解析システムであって、
前記物体の動作を捉えた深度画像を撮影する距離画像センサと、
前記物体の動作を定量的に表す動作値を出力とするニューラルネットワークに、前記距離画像センサにより撮影された前記深度画像を入力することにより、前記動作値を導出する動作解析装置と
を備え、
前記深度画像は、ゴルフスイングを撮影した画像である、
システム。 - 物体の動作を解析するための動作解析システムであって、
前記物体の動作を捉えた深度画像を撮影する距離画像センサと、
前記物体の動作を定量的に表す動作値を出力とするニューラルネットワークに、前記距離画像センサにより撮影された前記深度画像を入力することにより、前記動作値を導出する動作解析装置と
を備え、
前記ニューラルネットワークは、前記深度画像から前記物体の注目していない部位を表す非注目領域を無効化するドロップアウト層を有する、
システム。 - 物体の動作を解析するための動作解析方法であって、
距離画像センサにより前記物体の動作を捉えた深度画像を撮影するステップと、
前記物体の動作を定量的に表す動作値を出力とするニューラルネットワークに、前記距離画像センサにより撮影された前記深度画像を入力することにより、前記動作値を導出するステップと
を含み、
前記深度画像は、ゴルフスイングを撮影した画像である、
動作解析方法。 - 物体の動作を解析するための動作解析方法であって、
距離画像センサにより前記物体の動作を捉えた深度画像を撮影するステップと、
前記物体の動作を定量的に表す動作値を出力とするニューラルネットワークに、前記距離画像センサにより撮影された前記深度画像を入力することにより、前記動作値を導出するステップと
を含み、
前記ニューラルネットワークは、前記深度画像から前記物体の注目していない部位を表す非注目領域を無効化するドロップアウト層を有する、
動作解析方法。 - 物体の動作を解析するための動作解析プログラムであって、
前記物体の動作を距離画像センサにより撮影した深度画像を取得するステップと、
前記物体の動作を定量的に表す動作値を出力とするニューラルネットワークに、前記取得された深度画像を入力することにより、前記動作値を導出するステップと
をコンピュータに実行させ、
前記深度画像は、ゴルフスイングを撮影した画像である、
動作解析プログラム。 - 物体の動作を解析するための動作解析プログラムであって、
前記物体の動作を距離画像センサにより撮影した深度画像を取得するステップと、
前記物体の動作を定量的に表す動作値を出力とするニューラルネットワークに、前記取得された深度画像を入力することにより、前記動作値を導出するステップと
をコンピュータに実行させ、
前記ニューラルネットワークは、前記深度画像から前記物体の注目していない部位を表す非注目領域を無効化するドロップアウト層を有する、
動作解析プログラム。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016156842 | 2016-08-09 | ||
JP2016156842 | 2016-08-09 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2018026131A JP2018026131A (ja) | 2018-02-15 |
JP7057959B2 true JP7057959B2 (ja) | 2022-04-21 |
Family
ID=61195290
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2017153215A Active JP7057959B2 (ja) | 2016-08-09 | 2017-08-08 | 動作解析装置 |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP7057959B2 (ja) |
Families Citing this family (15)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP6904651B2 (ja) * | 2018-02-20 | 2021-07-21 | Kddi株式会社 | 複数の認識エンジンを用いて人物の行動を認識するプログラム、装置及び方法 |
JP6544551B1 (ja) * | 2018-03-25 | 2019-07-17 | 柏熊 誠治 | スイング判定装置、スイング判定方法、および、プログラム。 |
CN109325972B (zh) * | 2018-07-25 | 2020-10-27 | 深圳市商汤科技有限公司 | 激光雷达稀疏深度图的处理方法、装置、设备及介质 |
CN112654291A (zh) | 2018-09-10 | 2021-04-13 | 京瓷株式会社 | 推定装置、推定系统以及推定程序 |
WO2020084667A1 (ja) * | 2018-10-22 | 2020-04-30 | 富士通株式会社 | 認識方法、認識プログラム、認識装置、学習方法、学習プログラムおよび学習装置 |
JP7241517B2 (ja) * | 2018-12-04 | 2023-03-17 | 三菱電機株式会社 | 航法装置、航法パラメータ計算方法およびプログラム |
JP6737368B1 (ja) * | 2019-03-20 | 2020-08-05 | 株式会社タダノ | クレーン |
JP7344510B2 (ja) | 2019-11-05 | 2023-09-14 | テンソル・コンサルティング株式会社 | 動作分析システム、動作分析方法、および動作分析プログラム |
JP7482471B2 (ja) * | 2019-12-23 | 2024-05-14 | 住友ゴム工業株式会社 | 学習モデルの生成方法 |
WO2021241676A1 (ja) * | 2020-05-28 | 2021-12-02 | 学校法人慶應義塾 | 運動解析装置、システム及び記憶媒体、並びにリハビリテーションシステム |
CN111685773B (zh) * | 2020-06-04 | 2024-04-09 | 北京荟健科技有限公司 | 孕妇运动监控方法、装置、计算机设备及存储介质 |
JP7555802B2 (ja) | 2020-11-27 | 2024-09-25 | ブリヂストンスポーツ株式会社 | 推定装置および推定方法 |
US20240355141A1 (en) * | 2021-08-26 | 2024-10-24 | Cate Inc. | Program, information processing device, and information processing method |
CN114504777B (zh) * | 2022-04-19 | 2022-07-15 | 西南石油大学 | 基于神经网络和模糊综合评价的锻炼强度计算系统和方法 |
JP7496858B2 (ja) | 2022-08-08 | 2024-06-07 | 基礎地盤コンサルタンツ株式会社 | 粒度分布予測装置、機械学習装置、粒度分布予測方法、及び、機械学習方法 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2004164563A (ja) | 2002-09-26 | 2004-06-10 | Toshiba Corp | 画像解析方法、画像解析装置、画像解析プログラム |
JP2014521139A (ja) | 2011-06-27 | 2014-08-25 | シュン・ヘン・チャン | スポーツ動作のビデオを解析する方法 |
WO2015033576A1 (ja) | 2013-09-06 | 2015-03-12 | 日本電気株式会社 | セキュリティシステム、セキュリティ方法及び非一時的なコンピュータ可読媒体 |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH06147895A (ja) * | 1992-11-10 | 1994-05-27 | Fujitsu Ltd | 物体の位置計測装置 |
-
2017
- 2017-08-08 JP JP2017153215A patent/JP7057959B2/ja active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2004164563A (ja) | 2002-09-26 | 2004-06-10 | Toshiba Corp | 画像解析方法、画像解析装置、画像解析プログラム |
JP2014521139A (ja) | 2011-06-27 | 2014-08-25 | シュン・ヘン・チャン | スポーツ動作のビデオを解析する方法 |
WO2015033576A1 (ja) | 2013-09-06 | 2015-03-12 | 日本電気株式会社 | セキュリティシステム、セキュリティ方法及び非一時的なコンピュータ可読媒体 |
Non-Patent Citations (2)
Title |
---|
Ayan Sinha et al,DeepHand: Robust Hand Pose Estimation by Completing a Matrix Imputed with Deep Features,2016 IEEE Conference on Computer Vision and Pattern Recognition (CVPR),米国,IEEE,2016年06月30日,4150-4158,https://ieeexplore.ieee.org/document/7780819 |
渡辺 嘉二郎 他,スポーツを支える計測・情報システム,計測と制御,日本,社団法人計測自動制御学会,1999年04月10日,第38巻 第4号,249~254 |
Also Published As
Publication number | Publication date |
---|---|
JP2018026131A (ja) | 2018-02-15 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7057959B2 (ja) | 動作解析装置 | |
US12087077B2 (en) | Determining associations between objects and persons using machine learning models | |
US11747898B2 (en) | Method and apparatus with gaze estimation | |
JP6116784B1 (ja) | 3次元モデル生成システム、3次元モデル生成方法、及びプログラム | |
CN112434679B (zh) | 康复运动的评估方法及装置、设备、存储介质 | |
CN112438724A (zh) | 跌倒风险评估方法、跌倒风险评估装置以及记录介质 | |
Nahavandi et al. | A skeleton-free kinect system for body mass index assessment using deep neural networks | |
KR20180110443A (ko) | 열량 정보 제공 장치 및 방법 | |
KR101636171B1 (ko) | 스켈레톤 트래킹 방법 및 이를 이용한 스켈레톤 트래킹 시스템 | |
JP7480001B2 (ja) | 学習装置、処理装置、学習方法、姿勢検出モデル、プログラム、及び記憶媒体 | |
CN115862124A (zh) | 视线估计方法、装置、可读存储介质及电子设备 | |
JP6525179B1 (ja) | 行動推定装置 | |
CN113111743A (zh) | 人员距离探测方法及装置 | |
Hwang et al. | Motion data acquisition method for motion analysis in golf | |
CN112438722A (zh) | 肌肉衰减症评估方法、评估装置以及存储介质 | |
US20250037482A1 (en) | Method and apparatus for optical detection and analysis in a movement environment | |
JP7482471B2 (ja) | 学習モデルの生成方法 | |
JP6525180B1 (ja) | 対象数特定装置 | |
Nguyen et al. | Vision-based global localization of points of gaze in sport climbing | |
Chamola et al. | Advancements in Yoga Pose Estimation Using Artificial Intelligence: A Survey | |
KR20230010164A (ko) | 두경부 영상 이미지를 이용한 지방량 산출 방법 및 이를 위한 장치 | |
Nevalainen et al. | Image analysis and development of graphical user interface for pole vault action | |
Chen et al. | An integrated sensor network method for safety management of construction workers | |
US20240404195A1 (en) | Training device, processing device, training method, pose detection model, and storage medium | |
US20240362849A1 (en) | Computer-readable recording medium storing training program, generation program, training method, and generation method |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
AA64 | Notification of invalidation of claim of internal priority (with term) |
Free format text: JAPANESE INTERMEDIATE CODE: A241764 Effective date: 20170829 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20170830 |
|
A711 | Notification of change in applicant |
Free format text: JAPANESE INTERMEDIATE CODE: A712 Effective date: 20180207 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20200619 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20210728 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20210817 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20211013 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20220322 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20220329 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7057959 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |