JP7370777B2 - 学習システム、分析システム、学習方法、分析方法、プログラム、及び記憶媒体 - Google Patents
学習システム、分析システム、学習方法、分析方法、プログラム、及び記憶媒体 Download PDFInfo
- Publication number
- JP7370777B2 JP7370777B2 JP2019166910A JP2019166910A JP7370777B2 JP 7370777 B2 JP7370777 B2 JP 7370777B2 JP 2019166910 A JP2019166910 A JP 2019166910A JP 2019166910 A JP2019166910 A JP 2019166910A JP 7370777 B2 JP7370777 B2 JP 7370777B2
- Authority
- JP
- Japan
- Prior art keywords
- image
- human body
- model
- body model
- person
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims description 87
- 238000004458 analytical method Methods 0.000 title claims description 40
- 238000003860 storage Methods 0.000 title claims description 23
- 230000008569 process Effects 0.000 claims description 72
- 238000012545 processing Methods 0.000 claims description 72
- 238000004364 calculation method Methods 0.000 claims description 42
- 230000005484 gravity Effects 0.000 claims description 39
- 208000037170 Delayed Emergence from Anesthesia Diseases 0.000 claims description 33
- 238000013528 artificial neural network Methods 0.000 claims description 23
- 230000002194 synthesizing effect Effects 0.000 claims 1
- 238000010586 diagram Methods 0.000 description 35
- 230000036544 posture Effects 0.000 description 16
- 230000000694 effects Effects 0.000 description 15
- 238000012986 modification Methods 0.000 description 15
- 230000004048 modification Effects 0.000 description 15
- 238000003384 imaging method Methods 0.000 description 13
- 230000006870 function Effects 0.000 description 12
- 239000000284 extract Substances 0.000 description 11
- 210000000245 forearm Anatomy 0.000 description 11
- 238000009877 rendering Methods 0.000 description 7
- 238000009826 distribution Methods 0.000 description 4
- 238000012549 training Methods 0.000 description 4
- 230000001133 acceleration Effects 0.000 description 3
- 239000003086 colorant Substances 0.000 description 3
- 230000007613 environmental effect Effects 0.000 description 3
- 238000011176 pooling Methods 0.000 description 3
- 238000004040 coloring Methods 0.000 description 2
- 210000004247 hand Anatomy 0.000 description 2
- 239000000203 mixture Substances 0.000 description 2
- 238000005070 sampling Methods 0.000 description 2
- 239000007787 solid Substances 0.000 description 2
- 210000000707 wrist Anatomy 0.000 description 2
- 101100465519 Arabidopsis thaliana MPA1 gene Proteins 0.000 description 1
- 101100300012 Mannheimia haemolytica purT gene Proteins 0.000 description 1
- 101100067996 Mus musculus Gbp1 gene Proteins 0.000 description 1
- 210000000617 arm Anatomy 0.000 description 1
- 230000015572 biosynthetic process Effects 0.000 description 1
- 210000000988 bone and bone Anatomy 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 238000004891 communication Methods 0.000 description 1
- 238000003066 decision tree Methods 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 238000012217 deletion Methods 0.000 description 1
- 230000037430 deletion Effects 0.000 description 1
- 230000006866 deterioration Effects 0.000 description 1
- 239000006185 dispersion Substances 0.000 description 1
- 238000011156 evaluation Methods 0.000 description 1
- 230000004886 head movement Effects 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 238000007689 inspection Methods 0.000 description 1
- 210000002414 leg Anatomy 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 210000002569 neuron Anatomy 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 230000008447 perception Effects 0.000 description 1
- 238000007637 random forest analysis Methods 0.000 description 1
- 230000009467 reduction Effects 0.000 description 1
- 230000011218 segmentation Effects 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
- 238000003786 synthesis reaction Methods 0.000 description 1
- 230000002123 temporal effect Effects 0.000 description 1
- 238000012546 transfer Methods 0.000 description 1
- 210000000689 upper leg Anatomy 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/44—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
- G06F18/2148—Generating training patterns; Bootstrap methods, e.g. bagging or boosting characterised by the process organisation or structure, e.g. boosting cascade
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/44—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
- G06V10/443—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components by matching or filtering
- G06V10/449—Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters
- G06V10/451—Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters with interaction between the filter responses, e.g. cortical complex cells
- G06V10/454—Integrating the filters into a hierarchical structure, e.g. convolutional neural networks [CNN]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/764—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/774—Generating sets of training patterns; Bootstrap methods, e.g. bagging or boosting
- G06V10/7747—Organisation of the process, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/778—Active pattern-learning, e.g. online learning of image or video features
- G06V10/7784—Active pattern-learning, e.g. online learning of image or video features based on feedback from supervisors
- G06V10/7788—Active pattern-learning, e.g. online learning of image or video features based on feedback from supervisors the supervisor being a human, e.g. interactive learning with a human teacher
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/20—Movements or behaviour, e.g. gesture recognition
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Evolutionary Computation (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Databases & Information Systems (AREA)
- Artificial Intelligence (AREA)
- Computing Systems (AREA)
- Software Systems (AREA)
- Medical Informatics (AREA)
- Human Computer Interaction (AREA)
- Life Sciences & Earth Sciences (AREA)
- Data Mining & Analysis (AREA)
- Molecular Biology (AREA)
- Biomedical Technology (AREA)
- Biodiversity & Conservation Biology (AREA)
- Social Psychology (AREA)
- Psychiatry (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Evolutionary Biology (AREA)
- General Engineering & Computer Science (AREA)
- Image Analysis (AREA)
- Measurement Of Mechanical Vibrations Or Ultrasonic Waves (AREA)
Description
本願明細書と各図において、既に説明したものと同様の要素には同一の符号を付して詳細な説明は適宜省略する。
図1は、第1実施形態に係る学習システムの構成を表す模式的ブロック図である。
図2~図6は、第1実施形態に係る学習システムによる処理を説明するための図である。
第4処理では、第3生成部13は、第1画像に図形を加える。図形の形、大きさ、深度(又は色)などは、実空間上の環境に応じて適宜設定される。例えば、第3生成部13は、少なくとも1つの四角形を第1画像に追加して第2画像を生成する。第3生成部13は、四角以外の多角形、円形、楕円形、アニュラスなどを追加しても良い。
図8は、第1実施形態に係る学習システムで用いられるニューラルネットワークの一部を例示する模式図である。
第1モデルは、好ましくはニューラルネットワークを含む。ニューラルネットワークを用いることで、身体部位への印付けの精度を向上させることができる。ニューラルネットワークの構成は、任意である。画像の特徴をより精度良く抽出するためには、ニューラルネットワークは、畳込み層を含むことが好ましい。ここでは、特に好ましいニューラルネットワークの構成の一例を説明する。
同様に、ブロック922は、ブロック912から出力された特徴量マップと、ブロック923から出力された特徴量マップと、にゼロパディングを適用した畳込み処理3cを実行するサブブロック922a及び922bを含む。例えば、サブブロック922aは、ブロック912から出力された幅54×高さ66の256個の特徴量マップと、ブロック923から出力された幅54×高さ66の1024個の特徴量マップと、を処理するために、幅3×高さ3×厚み1280のカーネルを、512個含む。
ここでは、複数の第2画像及び複数の教師画像を用いて第1モデルを学習させる場合について説明する。
第1生成部11は、人体モデルを用いて複数の第1画像を生成する(ステップS1)。複数の第1画像に写された人体モデルの姿勢は、互いに異なる。
第2生成部12は、複数の第1画像に各身体部位への印付けを行い、複数の第1画像にそれぞれ対応する複数の教師画像を生成する(ステップS2)。第3生成部13は、複数の第1画像に対して第1処理~第5処理の少なくともいずれかを実行し、複数の第2画像を生成する(ステップS3)。学習部14は、互いに対応する第2画像と教師画像の組を順次用いて第1モデルを学習させる(ステップS4)。
第1実施形態に係る学習システム100では、第1生成部11が、3次元の人体モデルを用いて第1画像を生成する。このため、人が写った学習用の画像を用意する際に、実空間における人物を撮影する手間が不要となる。
また、実際の撮影により画像を生成した場合、その画像に対応する教師画像の生成にも大きな労力を要する。例えば、人が画像を確認し、その画像に写された人物の各部がどの身体部位に対応するかを印付けしていく必要がある。特に、モデルを十分に学習させるためには、多くの学習データが必要となる。すなわち、多くの画像を撮影し、それぞれの画像を確認して印付けしていく必要がある。
これに対して、人体モデルには、各点がどの身体部位に対応するかを示す情報が付帯されている。この情報を参照することで、第1画像が生成された際に、第1画像に写された人体モデルの各部が、どの身体部位に対応するか容易に判別できる。第2生成部12は、この情報に基づき、容易に第1画像に対応する教師画像を生成できる。
このように、第1実施形態に係る学習システム100によれば、第1モデルの学習に必要なデータを容易に用意することが可能となる。
カメラ等の撮像装置を用いて実際に撮影を行った場合、画素値のばらつきや画素の欠損などが生じる。人体モデルを用いて画像を生成する場合、画素値のばらつき、画素の欠損は生じない。すなわち、人体モデルを用いた場合、実際の写真に比べて、過度に鮮明な画像が得られる。
学習された第1モデルは、画像に写る実空間上の人物の各身体部位を印付けするために用いられる。すなわち、学習された第1モデルには、ノイズを含む画像が入力される。第1モデルが過度に鮮明な画像を用いて学習されていると、ノイズの影響によって、入力された画像への印付けの精度が低下する。
図10(a)は、第1モデルに入力される深度画像である。図10(a)の画像には、帽子を被った人物96が部品の組み立て作業を行っている様子が写されている。第1モデルは、図10(a)の画像に写された人物96の各身体部位に印付けを行う。図10(b)は、図10(a)の画像に対する理想的な印付けを表す。図10(a)に表した画像には、図10(b)に表したように、人物96の頭96a、左肩96b、左上腕96c、左前腕96d、左手96e、右肩96f、右上腕96g、右前腕96h、及び右手96iが写っている。
図17は、第1実施形態の第1変形例に係る学習システムの構成を示す模式的ブロック図である。
第1変形例に係る学習システム110は、図17に表したように、検出器31及び処理装置32をさらに備える。検出器31は、実空間上の人物に装着され、その人物の動きを検出する。処理装置32は、検出された動きに基づいて、各身体部位の各時刻における位置を算出し、算出結果を記憶装置20に記憶する。
第2変形例に係る学習システムは、第2生成部12が教師画像を生成する際の処理について、学習システム100と異なる。第2生成部12は、第1画像に写された人体モデルの各身体部位を印付けする際に、印として重心を付与する。このとき、第2生成部12は、人体モデルの各身体部位の3次元空間上の重心位置を算出する。
深度画像中のある領域の重心を計算する際、その領域の幅方向及び高さ方向における重心を計算する方法がある。この方法では、各画素の深度情報が重心の計算に用いられていない。例えば図18(a)に表したように、矢印A1の方向から見た人体モデル91を写した深度画像を生成し、その深度画像に写された人体モデルの頭の重心を計算する。重心の計算に深度情報が用いられないと、3次元での重心CGは、頭の表面に位置する。
図19は、第1実施形態の第3変形例に係る学習システムの構成を示す模式的ブロック図である。
第3変形例に係る学習システム130は、図19に表したように、第3生成部13を有していない。
図20(a)及び図20(b)は、第1生成部11により、人体モデルを用いて生成された第1画像を表す。図20(a)は、深度画像を表す。図20(b)は、色画像を表す。これらの画像では、人体モデル91が下辺で見切れている。第2生成部12は、図20(c)に表したように、図20(a)又は図20(b)の第1画像に対応する教師画像を生成する。
図21は、第2実施形態に係る分析システムの構成を表す模式的ブロック図である。
図22~図25は、第2実施形態に係る分析システムによる処理を説明するための図である。
第2実施形態に係る分析システム200は、第1実施形態に係る学習システムによって学習された第1モデルを用いて、分析を実行する。分析システム200は、図21に表したように、処理装置40を備える。図21の例では、分析システム200は、記憶装置20、撮像装置50、及び出力装置60をさらに備える。
取得部41は、記憶装置20にアクセスし、作業者が写った画像(入力画像)を第1モデルに入力する。第1モデルは、作業者の各身体部位が印付けされた画像(出力画像)を出力する。取得部41は、第1モデルから出力された画像を取得する。
図23(c)、図23(d)、図24(d)、および図25(a)において、横軸は時間を表し、縦軸は距離を表している。これらの図では、距離の値が大きいほど、2つの対象の間の距離が近く、相関が強いことを示している。
図24(a)および図25(b)は、横軸は時間を表し、縦軸はスカラー値を表している。
撮像装置50は、人物を撮影し、画像を生成する(ステップS11)。取得部41は、画像を第1モデルに入力し(ステップS12)、第1モデルの出力結果を取得する(ステップS13)。推定部42は、出力結果から人物の骨格情報を推定する(ステップS14)。算出部43は、骨格情報を用いて、身体部位に関する時系列データを生成する(ステップS15)。算出部43は、時系列データに基づき、人物の動きの周期を算出する(ステップS16)。出力部44は、算出された周期に基づく情報を外部へ出力する(ステップS17)。
例えば、第1実施形態に係る学習システム100の処理装置10は、コンピュータであり、ROM(Read Only Memory)10a、RAM(Random Access Memory)10b、CPU(Central Processing Unit)10c、およびHDD(Hard Disk Drive)10dを有する。
また、以上で説明した実施形態に係る分析システム及び分析方法を用いることで、人物の動きの周期をより高精度に求めることができる。コンピュータ(処理装置)を、分析システムとして動作させるためのプログラムを用いることで、同様の効果を得ることができる。
Claims (24)
- 人体を模した3次元の仮想の人体モデルを用いて第1画像を生成する第1生成部と、
前記第1画像中の前記人体モデルのそれぞれの身体部位に印付けした教師画像を生成する第2生成部と、
前記第1画像の横方向の画素数及び縦方向の画素数を取得し、前記横方向の縁から所定の範囲内及び前記縦方向の縁から所定の範囲内において、画素を欠損させる第1処理、
前記人体モデルを用いて前記第1画像が生成された際の前記人体モデルの輪郭を示す情報を取得し、前記人体モデルの輪郭に沿って画素を欠損させる第2処理、及び
前記第1画像に、予め設定された形、幅、高さ、及び数の図形を加える第4処理、
から選択される少なくとも1つを前記第1画像に実行することで、ノイズを含む第2画像を生成する第3生成部と、
前記第2画像及び前記教師画像を用いて、画像に写る人物の身体部位に印付けを行うように第1モデルを学習させる学習部と、
を備えた学習システム。 - 前記第3生成部は、前記第1処理、前記第2処理、前記第1画像の画素値にばらつきを加える第3処理、前記第4処理、及び前記第1画像に含まれる前記人体モデルの周囲に、実空間を写した画像を合成する第5処理から選択される少なくとも2つを前記第1画像に実行することで、前記第2画像を生成する請求項1記載の学習システム。
- 人体を模した3次元の仮想の人体モデルを用いて、所定の方向から前記人体モデルを見たときの第1画像を生成し、前記第1画像は前記人体モデルの一部が見切れて写らないように生成される、第1生成部と、
前記第1画像中の前記人体モデルのそれぞれの身体部位に印付けした教師画像を生成する第2生成部と、
前記第1画像及び前記教師画像を用いて、画像に写る人物の各身体部位に印付けを行うように第1モデルを学習させる学習部と、
を備えた学習システム。 - 前記第1モデルは、ニューラルネットワークを含み、
前記ニューラルネットワークは、
入力画像を縮小し、特徴量マップを出力する第1ブロックと、
前記第1ブロックから出力された前記特徴量マップが入力される第1残差ブロックと、
前記第1残差ブロックから出力された特徴量マップが入力され、入力された前記特徴量マップ及び前記第1残差ブロックから出力された前記特徴量マップと同じサイズの特徴量マップを出力する第2残差ブロックと、
前記第1残差ブロックから出力された前記特徴量マップと前記第2残差ブロックから出力された前記特徴量マップが入力される第2ブロックと、
前記第1ブロックから出力された前記特徴量マップと前記第2ブロックから出力された特徴量マップが入力される第3ブロックと
前記第3ブロックから出力された特徴量マップを拡大して出力画像を出力する第4ブロックと、
を含む、請求項1~3のいずれか1つに記載の学習システム。 - 前記第1画像は、深度情報を含む請求項1~4のいずれか1つに記載の学習システム。
- 人体を模した3次元の仮想の人体モデルを用いて、前記人体モデルの各点の深度情報を含む第1画像を生成する第1生成部と、
前記人体モデルのそれぞれの身体部位の3次元上の重心を算出し、前記第1画像中の前記人体モデルのそれぞれの前記身体部位に重心を印付けした教師画像を生成する第2生成部と、
前記第1画像にノイズを加えた第2画像を生成する第3生成部と、
前記第2画像及び前記教師画像を用いて第1モデルを学習させる学習部と、
を備えた学習システム。 - 前記第1生成部は、
前記人体モデルのそれぞれの前記身体部位の位置を、実空間上の人物のそれぞれの身体部位の位置を示す位置データに合わせて設定し、
それぞれの前記身体部位の位置を設定した前記人体モデルを用いて前記第1画像を生成する、
請求項1~6のいずれか1つに記載の学習システム。 - 前記第1画像は、上方から写された前記人体モデルを含む請求項1~7のいずれか1つに記載の学習システム。
- 前記第1生成部は、実空間における環境を模した環境モデルをさらに用いて前記第1画像を生成する請求項1~8のいずれか1つに記載の学習システム。
- 請求項1~9のいずれか1つに記載の学習システムによって学習された前記第1モデルに、実空間上の第1人物を写した入力画像を入力し、前記第1人物の各身体部位が印付けされた出力画像を取得する取得部と、
前記第1人物の各骨格の位置を示す骨格情報を前記出力画像に基づいて推定する推定部と、
を備えた分析システム。 - 算出部をさらに備え、
前記取得部は、第1作業における前記第1人物の動きを示す複数の前記入力画像を前記第1モデルに入力することで、複数の前記出力画像を取得し、
前記算出部は、前記複数の出力画像に基づく複数の骨格情報を用いて、時間の経過に伴う前記身体部位の動きを示す時系列データを生成し、前記時系列データに基づき、前記第1人物による動きの周期を算出する請求項10記載の分析システム。 - 人体を模した3次元の仮想の人体モデルを用いて第1画像を生成し、
前記第1画像中の前記人体モデルのそれぞれの身体部位に印付けした教師画像を生成し、
前記第1画像の横方向の画素数及び縦方向の画素数を取得し、前記横方向の縁から所定の範囲内及び前記縦方向の縁から所定の範囲内において、画素を欠損させる第1処理、
前記人体モデルを用いて前記第1画像が生成された際の前記人体モデルの輪郭を示す情報を取得し、前記人体モデルの輪郭に沿って画素を欠損させる第2処理、及び
前記第1画像に、予め設定された形、幅、高さ、及び数の図形を加える第4処理、
から選択される少なくとも1つを前記第1画像に実行することで、ノイズを含む第2画像を生成し、
前記第2画像及び前記教師画像を用いて、画像に写る人物の身体部位に印付けを行うように第1モデルを学習させる学習方法。 - 人体を模した3次元の仮想の人体モデルを用いて、前記人体モデルの各点の深度情報を含む第1画像を生成し、
前記人体モデルのそれぞれの身体部位の3次元上の重心を算出し、前記第1画像中の前記人体モデルのそれぞれの前記身体部位に重心を印付けした教師画像を生成し、
前記第1画像にノイズを加えた第2画像を生成し、
前記第2画像及び前記教師画像を用いて第1モデルを学習させる学習方法。 - 人体を模した3次元の仮想の人体モデルを用いて、所定の方向から前記人体モデルを見たときの第1画像を生成し、前記第1画像は前記人体モデルの一部が見切れて写らないように生成され、
前記第1画像中の前記人体モデルのそれぞれの身体部位に印付けした教師画像を生成し、
前記第1画像及び前記教師画像を用いて、画像に写る人物の各身体部位に印付けを行うように第1モデルを学習させる学習方法。 - 前記人体モデルのそれぞれの前記身体部位の位置を、実空間上の人物のそれぞれの身体部位の位置を示す位置データに合わせて設定し、
それぞれの前記身体部位の位置を設定した前記人体モデルを用いて前記第1画像を生成する請求項12~14のいずれか1つに記載の学習方法。 - 実空間における環境を模した環境モデルをさらに用いて前記第1画像を生成する請求項12~15のいずれか1つに記載の学習方法。
- 請求項12~16のいずれか1つに記載の学習方法によって学習された前記第1モデルに、実空間上の第1人物を写した入力画像を入力し、前記第1人物の各身体部位が印付けされた出力画像を取得し、
前記第1人物の各骨格の位置を示す骨格情報を前記出力画像に基づいて推定する分析方法。 - コンピュータに、
人体を模した3次元の仮想の人体モデルを用いて第1画像を生成させ、
前記第1画像中の前記人体モデルのそれぞれの身体部位に印付けした教師画像を生成させ、
前記第1画像の横方向の画素数及び縦方向の画素数を取得し、前記横方向の縁から所定の範囲内及び前記縦方向の縁から所定の範囲内において、画素を欠損させる第1処理、
前記人体モデルを用いて前記第1画像が生成された際の前記人体モデルの輪郭を示す情報を取得し、前記人体モデルの輪郭に沿って画素を欠損させる第2処理、及び
前記第1画像に、予め設定された形、幅、高さ、及び数の図形を加える第4処理、
から選択される少なくとも1つを前記第1画像に実行させることで、ノイズを含む第2画像を生成させ、
前記第2画像及び前記教師画像を用いて、画像に写る人物の身体部位に印付けを行うように第1モデルを学習させる、
プログラム。 - コンピュータに、
人体を模した3次元の仮想の人体モデルを用いて、前記人体モデルの各点の深度情報を含む第1画像を生成させ、
前記人体モデルのそれぞれの身体部位の3次元上の重心を算出し、前記第1画像中の前記人体モデルのそれぞれの前記身体部位に重心を印付けした教師画像を生成させ、
前記第1画像にノイズを加えた第2画像を生成させ、
前記第2画像及び前記教師画像を用いて第1モデルを学習させる、
プログラム。 - 前記コンピュータに、
前記人体モデルのそれぞれの前記身体部位の位置を、実空間上の人物のそれぞれの身体部位の位置を示す位置データに合わせて設定させ、
それぞれの前記身体部位の位置を設定した前記人体モデルを用いて前記第1画像を生成させる、
請求項18又は19に記載のプログラム。 - 前記コンピュータに、実空間における環境を模した環境モデルをさらに用いて前記第1画像を生成させる請求項18~20のいずれか1つに記載のプログラム。
- 前記コンピュータに、
学習済みの前記第1モデルに、実空間上の第1人物を写した入力画像を入力させて、前記第1人物の各身体部位が印付けされた出力画像を取得させ、
前記第1人物の各骨格の位置を示す骨格情報を前記出力画像に基づいて推定させる
請求項18~21のいずれか1つに記載のプログラム。 - 前記コンピュータに、
第1作業における前記第1人物の動きを示す複数の前記入力画像を前記第1モデルに入力することで、複数の前記出力画像を取得させ、
前記複数の出力画像から複数の前記骨格情報をそれぞれ推定させ、
前記複数の骨格情報を用いて、時間の経過に伴う前記身体部位の動きを示す時系列データを生成させ、
前記時系列データに基づき、前記第1人物による動きの周期を算出させる、
請求項22記載のプログラム。 - 請求項18~23のいずれか1つに記載のプログラムを記憶した記憶媒体。
Priority Applications (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019166910A JP7370777B2 (ja) | 2019-09-13 | 2019-09-13 | 学習システム、分析システム、学習方法、分析方法、プログラム、及び記憶媒体 |
US17/015,843 US11676362B2 (en) | 2019-09-13 | 2020-09-09 | Training system and analysis system |
PH12020050314A PH12020050314A1 (en) | 2019-09-13 | 2020-09-11 | Training system, analysis system, training method, analysis method, program, and storage medium |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019166910A JP7370777B2 (ja) | 2019-09-13 | 2019-09-13 | 学習システム、分析システム、学習方法、分析方法、プログラム、及び記憶媒体 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2021043839A JP2021043839A (ja) | 2021-03-18 |
JP7370777B2 true JP7370777B2 (ja) | 2023-10-30 |
Family
ID=74863129
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019166910A Active JP7370777B2 (ja) | 2019-09-13 | 2019-09-13 | 学習システム、分析システム、学習方法、分析方法、プログラム、及び記憶媒体 |
Country Status (3)
Country | Link |
---|---|
US (1) | US11676362B2 (ja) |
JP (1) | JP7370777B2 (ja) |
PH (1) | PH12020050314A1 (ja) |
Families Citing this family (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2020095428A (ja) * | 2018-12-12 | 2020-06-18 | 株式会社東芝 | モデル学習システム、モデル学習方法、プログラム、及び記憶媒体 |
US11983930B2 (en) * | 2020-03-27 | 2024-05-14 | Nec Corporation | Person flow prediction system, person flow prediction method, and programrecording medium |
US20220198665A1 (en) * | 2020-12-21 | 2022-06-23 | Medtronic Navigation, Inc. | Systems and methods for monitoring one or more anatomical elements |
CN113610969B (zh) * | 2021-08-24 | 2024-03-08 | 国网浙江省电力有限公司双创中心 | 一种三维人体模型生成方法、装置、电子设备及存储介质 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2013101527A (ja) | 2011-11-09 | 2013-05-23 | Sony Corp | 情報処理装置、表示制御方法、およびプログラム |
WO2017187641A1 (ja) | 2016-04-28 | 2017-11-02 | 富士通株式会社 | 骨格推定装置、骨格推定方法および骨格推定プログラム |
WO2019032481A1 (en) | 2017-08-08 | 2019-02-14 | Siemens Aktiengesellschaft | GENERATING SYNTHESIS DEPTH IMAGES FROM CAD DATA USING GENERATIVE CONTRASICITY NEURAL NETWORKS FOR ENHANCED ENHANCEMENT |
JP2019053626A (ja) | 2017-09-19 | 2019-04-04 | カシオ計算機株式会社 | 輪郭検出装置、描画装置、輪郭検出方法及び輪郭検出プログラム |
Family Cites Families (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP6596309B2 (ja) | 2015-11-11 | 2019-10-23 | 株式会社東芝 | 分析装置および分析方法 |
WO2019167214A1 (ja) * | 2018-03-01 | 2019-09-06 | 株式会社ソニー・インタラクティブエンタテインメント | 推定装置、推定方法及びプログラム |
-
2019
- 2019-09-13 JP JP2019166910A patent/JP7370777B2/ja active Active
-
2020
- 2020-09-09 US US17/015,843 patent/US11676362B2/en active Active
- 2020-09-11 PH PH12020050314A patent/PH12020050314A1/en unknown
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2013101527A (ja) | 2011-11-09 | 2013-05-23 | Sony Corp | 情報処理装置、表示制御方法、およびプログラム |
WO2017187641A1 (ja) | 2016-04-28 | 2017-11-02 | 富士通株式会社 | 骨格推定装置、骨格推定方法および骨格推定プログラム |
WO2019032481A1 (en) | 2017-08-08 | 2019-02-14 | Siemens Aktiengesellschaft | GENERATING SYNTHESIS DEPTH IMAGES FROM CAD DATA USING GENERATIVE CONTRASICITY NEURAL NETWORKS FOR ENHANCED ENHANCEMENT |
JP2019053626A (ja) | 2017-09-19 | 2019-04-04 | カシオ計算機株式会社 | 輪郭検出装置、描画装置、輪郭検出方法及び輪郭検出プログラム |
Non-Patent Citations (3)
Title |
---|
Murilo M. Marinho et al.,Preliminary Evaluation of a Framework for Overhead Skeleton Tracking in Factory Environments using Kinect,iWOAR '17: Proceedings of the 4th International Workshop on Sensor-based Activity Recognition and Interaction,2017年09月22日 |
Qin Xiangxiang et al.,Automated Segmentation Based on Residual U-Net Model for MR Prostate Images,2018 11th International Congress on Image and Signal Processing, BioMedical Engineering and Informatics (CISP-BMEI),2018年10月15日,https://ieeexplore.ieee.org/stamp/stamp.jsp?tp=&arnumber=8633233,IEL Online IEEE Xplore |
増田 彬 外2名,天井設置型深度カメラを用いたテーブルトップシステム利用者の個人認証手法の提案,情報処理学会研究報告 Vol.2015-HCI-165 No.3 Vol.2015-UBI-48 No.3,2015年11月29日 |
Also Published As
Publication number | Publication date |
---|---|
US11676362B2 (en) | 2023-06-13 |
US20210081716A1 (en) | 2021-03-18 |
JP2021043839A (ja) | 2021-03-18 |
PH12020050314A1 (en) | 2021-03-29 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7370777B2 (ja) | 学習システム、分析システム、学習方法、分析方法、プログラム、及び記憶媒体 | |
JP4829141B2 (ja) | 視線検出装置及びその方法 | |
KR101519775B1 (ko) | 오브젝트의 모션 인식 기반 애니메이션 생성 방법 및 장치 | |
JP7127650B2 (ja) | 認識プログラム、認識方法および認識装置 | |
JP7480001B2 (ja) | 学習装置、処理装置、学習方法、姿勢検出モデル、プログラム、及び記憶媒体 | |
CN104123749A (zh) | 一种图像处理方法及系统 | |
CN110363867A (zh) | 虚拟装扮系统、方法、设备及介质 | |
JP7487057B2 (ja) | 作業推定装置、方法およびプログラム | |
Lang et al. | Acquisition of elastic models for interactive simulation | |
CN101071473A (zh) | 检测特征点的设备及检测特征点的方法 | |
JP5526465B2 (ja) | 爪位置データ検出装置及び爪位置データ検出方法、並びに爪位置データ検出プログラム | |
Singh et al. | Development of a self reliant humanoid robot for sketch drawing | |
Plantard et al. | Usability of corrected Kinect measurement for ergonomic evaluation in constrained environment | |
JP3932360B2 (ja) | ランドマーク抽出装置およびランドマーク抽出方法 | |
Amirkhanov et al. | WithTeeth: Denture Preview in Augmented Reality. | |
JP7029253B2 (ja) | 情報処理装置及びその方法 | |
JP5061808B2 (ja) | 感情判定方法 | |
WO2023157230A1 (ja) | 学習装置、処理装置、学習方法、姿勢検出モデル、プログラム、及び記憶媒体 | |
JP4332669B2 (ja) | 関節中心計測装置 | |
JP7651293B2 (ja) | 学習装置、分析装置、学習方法、プログラム、及び記憶媒体 | |
Habibillah et al. | Motion Capture Technique with Enhancement Filters for Humanoid Model Movement Animation | |
Tian et al. | Effecting validity of ergonomics analysis during virtual interactive design | |
Xiang et al. | Human Grasping Behavior Analysis in Human-Robot Collaboration Based on Markerless Motion Capture | |
WO2023162223A1 (ja) | 学習プログラム、生成プログラム、学習方法および生成方法 | |
JP2024154184A (ja) | 学習装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20220406 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20230327 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20230404 |
|
A601 | Written request for extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A601 Effective date: 20230601 |
|
RD01 | Notification of change of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7421 Effective date: 20230616 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20230802 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20230919 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20231018 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 7370777 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |