[go: up one dir, main page]

JP2017102808A - 画像処理装置および方法 - Google Patents

画像処理装置および方法 Download PDF

Info

Publication number
JP2017102808A
JP2017102808A JP2015237227A JP2015237227A JP2017102808A JP 2017102808 A JP2017102808 A JP 2017102808A JP 2015237227 A JP2015237227 A JP 2015237227A JP 2015237227 A JP2015237227 A JP 2015237227A JP 2017102808 A JP2017102808 A JP 2017102808A
Authority
JP
Japan
Prior art keywords
unit
human body
priority
person
posture
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2015237227A
Other languages
English (en)
Inventor
篤史 木村
Atsushi Kimura
篤史 木村
大資 田原
Daishi Tahara
大資 田原
博之 勢川
Hiroyuki Segawa
博之 勢川
稲田 徹悟
Tetsugo Inada
徹悟 稲田
大場 章男
Akio Oba
章男 大場
寛史 岡本
Hiroshi Okamoto
寛史 岡本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Sony Interactive Entertainment LLC
Original Assignee
Sony Corp
Sony Interactive Entertainment LLC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp, Sony Interactive Entertainment LLC filed Critical Sony Corp
Priority to JP2015237227A priority Critical patent/JP2017102808A/ja
Priority to US15/353,882 priority patent/US10474876B2/en
Publication of JP2017102808A publication Critical patent/JP2017102808A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • G06T7/75Determining position or orientation of objects or cameras using feature-based methods involving models
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • G06T2207/10021Stereoscopic video; Stereoscopic image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10028Range image; Depth image; 3D point clouds
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person
    • G06T2207/30201Face
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30242Counting objects in image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/44Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/52Surveillance or monitoring of activities, e.g. for recognising suspicious objects
    • G06V20/53Recognition of crowd images, e.g. recognition of crowd congestion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/107Static hand or arm
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/172Classification, e.g. identification

Landscapes

  • Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Processing Or Creating Images (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)

Abstract

【課題】複数人の姿勢を同時に推定する場合にも高速に安定して処理を行うことができる。【解決手段】姿勢最適化部は、人体領域抽出部からの人体領域情報を用いて、最適化順序/領域生成部からの順序/領域制御情報に基づく優先順位に沿って、複数人の姿勢推定を順番に行う。姿勢推定は、人体が存在する可能性のある領域に整合するように、人体のモデルの姿勢のパラメータの最適化を行う処理であり、入力画像から得られた人体領域情報と、人体モデルのシルエットが一致するように最適化が行われる。本開示は、例えば、人体のモデルの関節位置や角度を最適化する画像処理装置に適用することができる。【選択図】図3

Description

本開示は、画像処理装置および方法に関し、特に、複数人の姿勢を同時に推定する場合にも高速に安定して処理を行うことができるようにした画像処理装置および方法に関する。
カメラ等からの入力画像に対し、背景差分(background subtraction)アルゴリズムなどによって動被写体部分のシルエット領域に対し人体モデルをエネルギ最適化によってあてはめて姿勢を推定する姿勢推定技術がある(例えば、非特許文献1参照)。
また、複数の動被写体部分のシルエットを3次元的に投影し、人体部分を示す3次元形状を推定するVisual Hullという手法を用いた上で人体モデルの最適化を行う技術もある(例えば、非特許文献2参照)。
<Articulated Body Motion Capture by Stochastic Search(International Journal of Computer Vision,2005),JONATHAN DEUTSCHER AND LAN REID,Department of Engineering Science,University of Oxford,Oxford,OX13PJ,United Kingdom,Received August 19,2003.> <Markerless Motion Capture System to Study Musculockeletal Biomechanics,Visual Hull and Simulated Annealing Approach,S. Corazza, L. Mundermann, A. M. Chaudhari, T. Demattio, C. Cobelli, T. P. Andriacchi, Annals of Biomedical Engineering - ANN BIOMED ENG , vol. 34, no. 6, pp. 1019-1029, 2006>
これらの技術はいずれもエネルギ関数の最適化問題に帰着するが、最適化の対象である人体モデルを構成するパラメータは極めて多いため、計算量が非常に多かった。また、複数の人物の姿勢を同時に推定する場合には、パラメータ数がさらに増加するため、計算量はさらに増加する。
また、複数の人物の姿勢を同時に推定する場合、シルエットに対して最適化にしても、3次元形状に対しての最適化においても、人体の存在領域が1人の姿勢推定の場合よりも複雑な形状になるため、安定して正しい姿勢推定を行うことは困難であった。
以上のように、これまで、複数人物に対して高速に安定して正しい姿勢を推定し続けるということが困難であった。
本開示は、このような状況に鑑みてなされたものであり、複数人の姿勢を同時に推定する場合にも高速に安定して処理を行うことができるものである。
本技術の一側面の画像処理装置は、入力画像から検出された複数の人物の周辺領域に対して優先度をそれぞれ設定する優先度設定部と、前記優先度設定部より設定された優先度を用いて選択された人物の周辺領域に基づいて、前記入力画像から抽出された人体領域に対する人体モデルの姿勢を逐次的に推定する姿勢推定部とを備える。
前記優先度設定部は、顔検出における顔検出枠の大きさによって優先度を設定することができる。
前記優先度設定部は、人体のデプス情報に基づく人体が位置する近さによって優先度を設定することができる。
前記優先度設定部は、1つ前の処理フレームの複数の人物の姿勢推定結果から算出される距離値を用いて、優先度を設定することができる。
前記入力画像から個人を特定する個人特定部をさらに備え、前記姿勢推定部は、前記ユーザが、前記個人特定部により特定された個人の優先度を指定するためのインタフェースにより指定された優先度に基づいて、前記入力画像から抽出された人体領域に対する人体モデルの姿勢を逐次的に推定することができる。
前記個人特定部は、顔識別により前記入力画像から個人を特定することができる。
前記個人特定部は、前記人物が所持する検出または識別可能なコントローラ、または、前記人物に装着されたマーカにより前記入力画像から個人を特定することができる。
前記個人特定部は、前記人物の周辺領域における特徴的な色により前記入力画像から個人を特定することができる。
前記優先度設定部は、前記複数の人物の周辺領域のうち、前記優先度の低い領域を排除領域として設定し、前記姿勢推定部は、前記優先度設定部により設定された排除領域を排除して、前記入力画像から抽出された人体領域に対する人体モデルの姿勢を逐次的に推定することができる。
前記姿勢推定部は、前記優先度設定部により設定された排除領域においては、前記入力画像から抽出された人体領域に対する人体モデルの姿勢を逐次的に推定することを禁止することができる。
処理対象の人数を制限する人数制限部をさらに備え、前記姿勢推定部は、前記人数制限部により制限された人数以上の人体モデルの姿勢を逐次的に推定することを禁止することができる。
前記人数制限部は、顔検出における顔の数に基づいて処理対象の人数を制限することができる。
前記人数制限部は、ユーザによる指定に基づいて処理対象の人数を制限することができる。
本技術の一側面の画像処理方法は、画像処理装置が、入力画像から検出された複数の人物の周辺領域に対して優先度をそれぞれ設定し、設定された優先度を用いて選択された人物の周辺領域に基づいて、前記入力画像から抽出された人体領域に対する人体モデルの姿勢を逐次的に推定する。
本技術の一側面においては、入力画像から検出された複数の人物の周辺領域に対して優先度がそれぞれ設定され、設定された優先度を用いて選択された人物の周辺領域に基づいて、前記入力画像から抽出された人体領域に対する人体モデルの姿勢が逐次的に推定される。
本技術によれば、複数人の姿勢を同時に推定する場合にも高速に安定して処理を行うことができる。
なお、本明細書に記載された効果は、あくまで例示であり、本技術の効果は、本明細書に記載された効果に限定されるものではなく、付加的な効果があってもよい。
本技術を適用した画像処理装置の構成例を示すブロック図である。 推定目標の情報の例を示す図である。 姿勢最適化部の構成例を示すブロック図である。 画像処理装置の画像処理を説明するフローチャートである。 図4のステップS14の指定目標生成処理を説明するフローチャートである。 操作画面の例を示す図である。 図4のステップS15の順序/領域生成処理を説明するフローチャートである。 推定目標の情報の例を示す図である。 優先領域および排除領域の例を示す図である。 図7のステップS51の排除領域の設定処理を説明するフローチャートである。 図7のステップS52の優先順位リストによる優先領域の設定処理を説明するフローチャートである。 図7のステップS53のリストなしの優先領域の設定処理を説明するフローチャートである。 図4のステップS16の姿勢最適化処理を説明するフローチャートである。 パーソナルコンピュータの構成例を示すブロック図である。
以下、本開示を実施するための形態(以下実施の形態とする)について説明する。
<画像処理装置の構成例>
図1は、本技術を適用した画像処理装置の構成例を示す図である。図1の例においては、カメラなどからの入力画像から人体らしい領域を抽出し、抽出された人体らしい領域に整合するように人体のモデルの関節位置や角度を最適化する画像処理を行う画像処理装置である。その際、本技術においては、ユーザが複数人の場合の例を説明する。
図1の例において、画像処理装置1は、UI(User Interface)部11、人体領域抽出部12、人物検出特定部13、推定目標生成部14、最適化順序/領域生成部15、姿勢最適化部16、および推定目標記憶部17を含むように構成される。なお、図示せぬ外部から画像が、人体領域抽出部12および人物検出特定部13に、入力画像として入力される。
UI部11は、図示せぬモニタに操作画面を出力し、リモートコントローラやスティックなどを介して入力されるユーザの操作に対応する指示情報を推定目標生成部14に入力する。
人体領域抽出部12は、入力画像から認証対象である人体が存在する可能性のある空間領域を抽出する。例えば、背景差分アルゴリズムが用いられて入力画像から人体らしい領域が抽出され、人体領域情報が生成されて、姿勢最適化部16に出力される。
人物検出特定部13は、入力画像、または、赤外センサやレーザ測位などの各種センサからのセンシング情報(まとめて、入力情報とも称する)を用いて、人物らしい領域の検出や個人識別を行い、個人を特定し、人物情報を生成する。なお、人物検出特定部13の処理としては、個人特定を行うものと行わないものがある。
具体的には、人物検出特定部13は、入力情報を用いて、個人特定を行わないものとしては、
・顔検出(顔の位置・大きさの検出)
・人体領域の代表的なデプス値(デプス情報)の検出
・人数特定(例えば、顔検出した顔の総数)
個人特定を行うものとしては、
・顔識別(個人を特定)
・人体領域らしい大まかな位置に対する服装の代表的な色や模様の抽出
・マーカ(身体に付けた個人特定用の印)や、ゲーム等で使用するコントローラ、スポーツで使用するラケット・バットなど特定の物体の検出
などを行い、位置・大きさや人物を個別特定するラベルを合わせて出力する。
人物検出特定部13は、生成した人物情報を、推定目標生成部14および最適化順序/領域生成部15に出力する。
推定目標生成部14は、UI部11からのユーザの操作に対応する指示情報や、人物検出特定部13からの人物情報に基づいて、姿勢推定を開始する前に認識対象の人数などの推定目標(姿勢推定の各設定値)を決定する。例えば、「Aさん、Bさんの2人を推定対象として、さらに、Aさんを優先的に推定する。また、周囲にいるCさんは推定しない」といった内容を決定する。
具体的には、推定目標生成部14は、図2に示される推定目標の情報を生成する。例えば、人数が「3人」で、対象人物リストが「Aさん、Bさん、Cさん」で、対象人物優先順位リストが、「1.Bさん、2.Cさん、3.Aさん」で、回避人物リストが、「Xさん、Yさん、Zさん」である推定目標の情報が生成され、推定目標記憶部17に記憶される。
なお、回避人物リストは、回避人物として人物を指示する方法(この場合には、優先度を低く設定してもよい)もあるが、例えば、回避人物リストは、対象人物リストに登録されておらず、かつ、優先順位リストの最下位の人物から順に作成されてもよい。また、優先順位に限らず、優先度としてもよい。優先順位の上から順は、優先度の高いものから順となるし、優先度の低い順は、回避リストにおいて上位に登録される。
また、推定目標生成部14は、人物検出特定部13からの人物情報に基づく、人物を特定するための操作画面をUI部11に生成させる。
最適化順序/領域生成部15は、人物検出特定部13からの人物情報を用いて、複数人姿勢推定の順番や推定箇所の領域などの制御情報を生成する。具体的には、最適化順序/領域生成部15は、推定目標記憶部17からの推定目標の各リストを参照して、優先順位(優先度)を設定し、推定順序/領域および排除領域を決め、それを制御情報とする。
なお、推定目標記憶部17からの推定目標の情報を用いずに、人物検出特定部13からの人物情報から特定のルールに基づいて、優先順位(優先度)を設定し、推定順序/領域および排除領域を決めるようにしてもよい。
推定目標の情報が用いられない場合、具体的には、以下の処理があげられる。
・顔検出で、その検出枠が大きいほど手前にいる可能性が高いので、検出枠が大きいほど優先順位をあげる(すなわち、優先度を高くする)。
・デプス情報が得られている場合、手前(近い位置)ほど優先順位をあげる。
・デプス情報(例えば、デプスマップのデプス値)の大小で判断するのではなく、1つ前の処理フレームの複数人姿勢の推定結果から算出される距離値(=デプス値と本質的に同一)の大小を用いて、処理対象フレームに優先順位をつけてもよい。具体的には、例えば、2人が左右にいるような状況で、1つ前のフレームで、複数人姿勢推定の結果、右側の人物が、左側の人物よりも手前にいると推定された場合、次の処理対象フレームでも、右側の領域が手前にある可能性が高いので、右側の人物領域の優先度を高く設定する。
・顔検出で、その検出枠が一定の大きさ以下ならば、その人物領域を排除領域とする。
なお、デプス情報については、ユーザと向かい合う位置において、入力画像を撮像する撮像装置などを基に手前や奥が示されている。
最適化順序/領域生成部15は、生成した順序/領域制御情報を、姿勢最適化部16に出力する。
姿勢最適化部16は、人体領域抽出部12からの人体領域情報を用いて、最適化順序/領域生成部15からの順序/領域制御情報に基づく優先順位(優先度)に沿って、複数人の姿勢推定を順番に行う。姿勢推定は、人体が存在する可能性のある領域に整合するように、人体のモデル(ツリー構造)の姿勢のパラメータである関節位置、角度、関節の数などの最適化を行う処理であり、入力画像から得られた人体領域情報と、人体モデルのシルエットが一致するように最適化が行われる。その際、一致度(例えば、差分絶対値和)をエネルギとし、エネルギが最小になるように、姿勢のパラメータ(関節位置・角度・関節の数)などが最適化される。なお、姿勢最適化部16は、排除領域とされた領域については、姿勢推定対象領域から排除したり、姿勢推定処理を禁止する。
姿勢最適化部16においては、例えば、推定できなくなるまで、推定目標記憶部17からの推定目標の人数まで、あるいは、人物検出特定部13で顔検出された人数の総数まで、姿勢推定が行われる。
推定目標記憶部17は、推定目標生成部14により生成された推定目標の情報を記憶している。
図3は、姿勢最適化部16の構成例を示すブロック図である。
姿勢最適化部16は、制御部51、初期姿勢推定部52、重みマップ生成部53、エネルギ最適化部54、および姿勢情報記憶部55を含むように構成されている。図3の例においては、優先順位1の人物61の姿勢推定が終了して、優先順位2の人物62の姿勢推定が行われるタイミングの状態が示されている。
人体領域抽出部12からの人体領域情報は、エネルギ最適化部54に入力される。最適化順序/領域生成部15からの順序/領域制御情報は、制御部51、初期姿勢推定部52、および重みマップ生成部53に入力される。
制御部51は、順序/領域制御情報に基づいて姿勢推定の対象人物を優先順位(優先度の高い)の順に選択し、選択した対象人物に対して、初期姿勢推定部52に初期姿勢推定を行わせ、重みマップ生成部53に、重みマップ生成を行わせる。また、制御部51は、推定目標の人数を、推定目標記憶部17から取得し、例えば、推定目標の人数まで姿勢最適化処理が行われるように、初期姿勢推定部52、および重みマップ生成部53を制御する。すなわち、推定目標の人数以降の処理は禁止される。
初期姿勢推定部52は、制御部51の制御のもと、順序/領域制御情報に基づいて、選択された対象人物が存在しそうな領域の近くに初期姿勢を設定し、設定した初期姿勢の情報を、エネルギ最適化部54に出力する。
重みマップ生成部53には、姿勢情報記憶部55から、既に推定済みの人物領域の情報が入力される。重みマップ生成部53は、制御部51の制御のもと、順序/領域制御情報および既に推定済みの人物領域の情報に基づいて、推定対象人物の領域、推定済みの人物領域周辺、排除領域の重み付けを生成する。重みマップ生成部53は、生成された重み付けの情報である重みマップを、エネルギ最適化部54に出力する。
エネルギ最適化部54は、人体領域抽出部12からの人体領域情報に対し、人体モデルの姿勢によって決まる不一致具合(エネルギ)を最小にするように姿勢を最適化する逐次姿勢推定を行う。その際、初期姿勢推定部52からの人体モデルの位置・姿勢の初期値が用いられるとともに、重みマップ生成部53からの重みマップを、最適化制御やエネルギの計算に反映させることで、すでに推定済みの領域や排除領域の影響を受けないようになされる。
エネルギ最適化部54は、最適化された姿勢情報を、図示せぬ後段および姿勢情報記憶部55に出力する。また、エネルギ最適化部54は、対象人物の姿勢推定の終了通知を制御部51に出力する。
<画像処理装置の処理例>
次に、図4のフローチャートを参照して、画像処理装置1の画像処理について説明する。
ステップS11において、図示せぬ外部(撮像装置など)より、人体領域抽出部12および人物検出特定部13に入力画像が入力される。
ステップS12において、人体領域抽出部12は、背景差分アルゴリズムによりステップS11により入力された入力画像から人体らしい領域を抽出し、人体領域情報を生成する。人体領域抽出部12は、生成された人体領域情報を、姿勢最適化部16に出力する。
ステップS13において、人物検出特定部13は、入力画像、または、センシング情報を用いて、人物らしい領域の検出や個人識別を行い、人物を特定し、人物情報を生成する。生成された人物情報は、推定目標生成部14および最適化順序/領域生成部15に出力される。
ステップS14において、指定目標生成部14は、UI部11からのユーザの操作に対応する指示情報や、人物検出特定部13からの人物情報に基づいて、姿勢推定を開始する前に認識対象の人数などの推定目標(姿勢推定の各設定値)を生成する処理を行う。なお、この指定目標生成処理は、図5を参照して後述される。ステップS14の処理により、推定目標の情報が生成され、推定目標記憶部17に記憶される。
ステップS15において、最適化順序/領域生成部15は、人物検出特定部13からの人物情報を用いて、複数人姿勢推定の順番や推定箇所の領域などの制御情報を生成する順序/領域生成処理を行う。この順序/領域生成処理は、図7を参照して後述される。このステップS15の処理により、順序/領域制御情報が生成され、姿勢最適化部16に出力される。
ステップS16において、姿勢最適化部16は、人体領域抽出部12からの人体領域情報を用いて、姿勢最適化処理を行う。この姿勢最適化処理は、図13を参照して後述される。ステップS16の処理により、最適化順序/領域生成部15からの順序/領域制御情報に基づく優先順位に沿って、複数人の姿勢推定が順番に行われる。
以上のように、複数の人物が存在する場合、人物に対し優先順位(優先度)を設定した上で逐次姿勢推定を行うようにしたので、高速かつ安定的な処理が可能となる。
次に、図5のフローチャートを参照して、図4のステップS14の指定目標生成処理について説明する。なお、この指定目標生成処理は、UI部11からのユーザの操作に対応する指示情報や、人物検出特定部13からの人物情報に基づいて行われる。
例えば、UI部11は、モニタに図6Aに示される操作画面を表示させる。図6Aの例においては、プレーヤの人数の選択を促す操作画面が示されている。操作画面には、1人乃至5人が選択可能に表示されている。操作画面の右下隅には、この選択をスキップするGUIが表示されており、ユーザは、選択をしない選択を行うこともできる。UI部11からは、ユーザの操作に対応する指示情報が指定目標生成部14に入力される。
ステップS31において、指定目標生成部14は、UI部11からのユーザの操作に対応する指示情報や、人物検出特定部13からの人物情報に基づいて、姿勢推定する人数を決定する。なお、この人数の情報に対応して、後述する姿勢推定処理の継続、停止(禁止)が制御される。また、例えば、スキップされた場合、人物検出特定部13からの人物情報(顔検出結果など)に基づいて、姿勢推定する人数が決定される。
次に、例えば、UI部11は、モニタに図6Bに示される操作画面を表示させる。図6Bの例においては、プレーヤの選択を促す操作画面が示されている。操作画面には、1人乃至5人の各顔画像と名前が選択可能に表示されている。操作画面の右下隅には、この選択をスキップするGUIが表示されており、ユーザは、選択をしない選択を行うこともできる。UI部11からは、ユーザの操作に対応する指示情報が指定目標生成部14に入力される。
ステップS32において、指定目標生成部14は、UI部11からのユーザの操作に対応する指示情報や、人物検出特定部13からの人物情報に基づいて、認識対象の人物を個人特定してリストアップする。
次に、例えば、UI部11は、モニタに図6Cに示される操作画面を表示させる。図6Cの例においては、プレーヤの順番指定を促す操作画面が示されている。操作画面には、1の文字とBさんの顔画像、2の文字とCさんの顔画像、3の文字とBさんの顔画像が表示されている。操作画面の右下隅には、この選択をスキップするGUIが表示されており、ユーザは、選択をしない選択を行うこともできる。UI部11からは、ユーザの操作に対応する指示情報が指定目標生成部14に入力される。
指定目標生成部14は、ステップS33において、UI部11からのユーザの操作に対応する指示情報や、人物検出特定部13からの人物情報に基づいて、認識対象の人物に優先順位を付与する。なお、順位ではなく、優先度であってもよい。
次に、例えば、UI部11は、モニタに図6Dに示される操作画面を表示させる。図6Dの例においては、プレーヤではない観客の選択を促す操作画面が示されている。操作画面には、プレーヤとして選択済みであることを示す1乃至3の文字が重畳されたAさん、Bさん、Cさんを示す矩形と、選択されなかったDさん、Eさん、Vさん、Wさん、Xさん、Yさん、Zさんの顔画像が表示されている。操作画面の右下隅には、この選択をスキップするGUIが表示されており、ユーザは、選択をしない選択を行うこともできる。UI部11からは、ユーザの操作に対応する指示情報が指定目標生成部14に入力される。
指定目標生成部14は、ステップS34において、UI部11からのユーザの操作に対応する指示情報や、人物検出特定部13からの人物情報に基づいて、認識の対象外とする人物を個人特定してリストアップする。
指定目標生成部14は、ステップS35において、ステップS31乃至S34での設定に基づいて、例えば、図2に示されるような指定目標の情報を生成し、生成した指定目標の情報を、指定目標記憶部17に記憶させる。
次に、図7のフローチャートを参照して、図4のステップS15の順序/領域生成処理を説明する。なお、図7の例においては、図8に示されるような推定目標の情報が用いられる。図8の例においては、例えば、人数が「3人」で、対象人物リストが「Aさん、Bさん、Cさん、Eさん」で、対象人物優先順位リストが、「1.Bさん、2.Cさん、3.Aさん」で、回避人物リストが、「Xさん、Yさん、Zさん」である推定目標の情報が生成され、推定目標記憶部17に記憶されている。
ステップS51において、最適化順序/領域生成部15は、推定目標記憶部17からの推定目標の回避人物リストを参照して、排除領域を設定する。この排除領域の設定処理は、図10を参照して後述される。ステップS51の処理により、図9Aに示されるように、回避人物リストにあるXさんの周辺領域が排除領域として設定される。
ステップS52において、最適化順序/領域生成部15は、推定目標記憶部17からの推定目標の優先順位リストを参照して、優先順位ありの優先領域を設定する。この優先順位ありの優先領域の設定処理は、図11を参照して後述される。ステップS52の処理により、図9Bに示されるように、図9Aの排除領域に加えて、対象人物優先順位リストにあるAさんとBさんの周辺領域が、それぞれ、優先領域(2番目)、優先領域(1番目)として設定される。
ステップS53において、最適化順序/領域生成部15は、推定目標記憶部17からの推定目標の優先順位リストを参照して、リストなしの優先領域を設定する。このリストなしの優先領域の設定処理は、図12を参照して後述される。ステップS53の処理により、図9Cに示されるように、図9Aの排除領域と図9Bの優先領域に加えて、対象人物リストにあるが、優先順位のないXさんの周辺領域が、優先領域(番号なし)として設定される。
以上のようにして順序/領域が設定され、順序/領域制御情報として、姿勢最適化部16に出力される。なお、この処理は一例であり、特定された個人の情報と、優先度に基づいて、排除領域や優先領域などを決めることも可能である。
次に、図10のフローチャートを参照して、図7のステップS51の排除領域の設定処理について説明する。
ステップS71において、最適化順序/領域生成部15は、推定目標記憶部17からの推定目標の回避人物リストの登録人物が1人以上いるか否かを判定する。ステップS71において、推定目標の回避人物リストの登録人物が1人以上いると判定された場合、処理は、ステップS72に進む。
ステップS72において、最適化順序/領域生成部15は、人物検出特定部13からの人物情報で特定された人物を1人選択する。ステップS73において、選択された人物が、指定目標の回避人物リストに載っているか否かが判定される。ステップS73において、回避人物リストに載っていると判定された場合、処理は、ステップS74に進む。
ステップS74において、最適化順序/領域生成部15は、選択された人物の人物領域周辺を、排除領域に設定する。ステップS73において、回避人物リストに載っていないと判定された場合、ステップS74をスキップし、ステップS75に進む。
ステップS75において、回避人物リストに載っているすべての人物について終了したか否か判定され、すべての人物について終了したと判定された場合、排除領域設定処理は、終了される。
ステップS75において、すべての人物について終了したと判定された場合、処理は、ステップS72に戻り、それ以降の処理を繰り返す。
また、ステップS71において、推定目標の回避人物リストの登録人物が1人以上いないと判定された場合、ステップS72乃至S75はスキップされ、排除領域設定処理は、終了される。
次に、図11のフローチャートを参照して、図7のステップS52の優先順位リストによる優先領域設定処理について説明する。
ステップS91において、最適化順序/領域生成部15は、推定目標記憶部17からの推定目標の対象人物優先順位リストの登録人物が1人以上いるか否かを判定する。ステップS91において、対象人物優先順位リストの登録人物が1人以上いると判定された場合、処理は、ステップS92に進む。
ステップS92において、最適化順序/領域生成部15は、優先順位リストの上位から順番に1人選択する。ステップS93において、最適化順序/領域生成部15は、選択された人物が、人物検出特定部13からの人物情報において個人特定した人物にいるか否かを判定する。ステップS93において、個人特定した人物にいると判定された場合、処理は、ステップS94に進む。
ステップS94において、最適化順序/領域生成部15は、その人物の人物領域周辺を、番号(上位順)とともに優先領域に設定する。ステップS93において、個人特定した人物にいないと判定された場合、ステップS94をスキップし、ステップS95に進む。
ステップS95において、対象人物優先順位リストに載っているすべての人物について終了したか否か判定され、すべての人物について終了したと判定された場合、優先順位リストによる優先領域設定処理は、終了される。
ステップS95において、まだすべての人物について終了していないと判定された場合、処理は、ステップS92に戻り、それ以降の処理を繰り返す。
また、ステップS91において、対象人物優先順位リストの登録人数が1人以上いないと判定された場合、ステップS92乃至S95はスキップされ、優先順位リストによる優先領域設定処理は、終了される。
次に、図11のフローチャートを参照して、図7のステップS53のリストなしの優先領域設定処理について説明する。
ステップS111において、最適化順序/領域生成部15は、推定目標記憶部17からの推定目標の対象人物リストに、優先領域に指定されていいない人物がいるか否かを判定する。ステップS111において、優先領域に指定されていいない人物がいると判定された場合、処理は、ステップS112に進む。
ステップS112において、最適化順序/領域生成部15は、優先領域に指定されていいない人物を1人選択する。ステップS113において、最適化順序/領域生成部15は、選択された人物が、人物検出特定部13からの人物情報において個人特定した人物にいるか否かを判定する。ステップS113において、個人特定した人物にいると判定された場合、処理は、ステップS114に進む。
ステップS114において、最適化順序/領域生成部15は、その人物の人物領域周辺を、順になしで優先領域に設定する。ステップS113において、個人特定した人物にいないと判定された場合、ステップS114をスキップし、ステップS115に進む。
ステップS115において、優先領域に指定されていいないと判定されたすべての人物について終了したか否か判定され、すべての人物について終了したと判定された場合、リストなしの優先領域設定処理は、終了される。
ステップS115において、まだすべての人物について終了していないと判定された場合、処理は、ステップS112に戻り、それ以降の処理を繰り返す。
また、ステップS111において、対象人物リストに、優先領域に指定されていいない人物がいないと判定された場合、ステップS112乃至S115はスキップされ、リストなしの優先領域設定処理は終了される。
次に、図13のフローチャートを参照して、図4のステップS16の姿勢最適化処理について説明する。
人体領域抽出部12からの人体領域情報は、エネルギ最適化部54に入力される。最適化順序/領域生成部15からの順序/領域制御情報は、制御部51に入力され、制御部51を介して、初期姿勢推定部52および重みマップ生成部53に入力される。
制御部51は、ステップS151において、優先順位の上から順に優先領域を選択する。ステップS152において、初期姿勢推定部52は、制御部51により選択された優先領域の初期姿勢を設定する。初期姿勢推定部52は、設定した初期姿勢の情報を、エネルギ最適化部54に出力する。
ステップS153において、重みマップ生成部53は、制御部51により選択された優先領域を処理する際の重みマップを生成する。すなわち、上述したように、順序/領域制御情報および既に推定済みの人物領域の情報に基づいて、推定対象人物の領域、推定済みの人物領域周辺、排除領域の重み付けが生成される。重みマップ生成部53は、生成された重み付けの情報である重みマップを、エネルギ最適化部54に出力する。
ステップS154において、エネルギ最適化部54は、人体領域抽出部12からの人体領域情報に対し、人体モデルの姿勢によって決まる不一致具合(エネルギ)を最小にするように姿勢を最適化する。その際、エネルギ最適化部54においては、初期姿勢推定部52からの人体モデルの位置・姿勢の初期値が用いられるとともに、重みマップ生成部53からの重みマップを、最適化制御やエネルギの計算に反映させることで、すでに推定済みの領域や排除領域の影響を受けないようになされる。
エネルギ最適化部54は、最適化された姿勢情報を、図示せぬ後段および姿勢情報記憶部55に出力する。また、エネルギ最適化部54は、対象人物の姿勢推定の終了通知を制御部51に出力する。
制御部51は、推定目標の人数を、推定目標記憶部17から取得する。ステップS155において、エネルギ最適化部54からの終了通知に対応して、制御部51は、推定目標の人数に達したか否かを判定する。ステップS155において、推定目標の人数に達したと判定された場合、姿勢最適化処理は終了される。
ステップS155において、また、推定目標の人数に達していないと判定された場合、処理は、ステップS151に戻り、それ以降の処理が繰り返される。
なお、ステップS155の処理の停止条件は、図13の例においては、推定目標の人数に達するまでとして、推定目標で人数を決める例を説明したが、例えば、人数の上限なしで、姿勢推定できなくなるまで、または、人物検出特定部13で顔検出した人数の総数まで(入力画像で人数カウントして、姿勢推定の人数を決める)、としてもよい。
以上のように、本技術においては、複数の人物が存在する場合には、人物に対し、優先順位を定義した上で逐次姿勢推定処理を行うことによって、高速かつ安定的な処理が可能となる。
顔識別(個人特定)やコントローラ、マーカなどにより人物の特定が可能な場合、予めユーザが予め優先順位を指定することによって、目的に応じたより安定的な姿勢推定が可能となる。
また、複数の人物が存在する場合には、排除対象者を直接、または、優先順位の逆から定義することによって、誤推定を低減しつつ、高速化に処理することができる。
さらに、顔検出などにより人数の特定が可能な場合、姿勢推定対象の人数を制限することにより姿勢の誤推定を低減しつつ、高速化に処理することができる。
以上により、本技術によれば、複数人の姿勢を同時に推定する場合にも高速に安定して処理を行うことができる。
<パーソナルコンピュータ>
上述した一連の処理は、ハードウエアにより実行することもできるし、ソフトウエアにより実行することもできる。一連の処理をソフトウエアにより実行する場合には、そのソフトウエアを構成するプログラムが、コンピュータにインストールされる。ここで、コンピュータには、専用のハードウエアに組み込まれているコンピュータや、各種のプログラムをインストールすることで、各種の機能を実行することが可能な汎用のパーソナルコンピュータなどが含まれる。
図14は、上述した一連の処理をプログラムにより実行するパーソナルコンピュータのハードウエアの構成例を示すブロック図である。
パーソナルコンピュータ500において、CPU(Central Processing Unit)501、ROM(Read Only Memory)502、RAM(Random Access Memory)503は、バス504により相互に接続されている。
バス504には、さらに、入出力インタフェース505が接続されている。入出力インタフェース505には、入力部506、出力部507、記憶部508、通信部509、及びドライブ510が接続されている。
入力部506は、キーボード、マウス、マイクロホンなどよりなる。出力部507は、ディスプレイ、スピーカなどよりなる。記憶部508は、ハードディスクや不揮発性のメモリなどよりなる。通信部509は、ネットワークインタフェースなどよりなる。ドライブ510は、磁気ディスク、光ディスク、光磁気ディスク、又は半導体メモリなどのリムーバブル記録媒体511を駆動する。
以上のように構成されるパーソナルコンピュータ500では、CPU501が、例えば、記憶部508に記憶されているプログラムを、入出力インタフェース505及びバス504を介して、RAM503にロードして実行する。これにより、上述した一連の処理が行われる。
コンピュータ(CPU501)が実行するプログラムは、リムーバブル記録媒体511に記録して提供することができる。リムーバブル記録媒体511は、例えば、磁気ディスク(フレキシブルディスクを含む)、光ディスク(CD-ROM(Compact Disc-Read Only Memory),DVD(Digital Versatile Disc)等)、光磁気ディスク、もしくは半導体メモリなどよりなるパッケージメディア等である。また、あるいは、プログラムは、ローカルエリアネットワーク、インターネット、デジタル衛星放送といった、有線または無線の伝送媒体を介して提供することができる。
コンピュータにおいて、プログラムは、リムーバブル記録媒体511をドライブ510に装着することにより、入出力インタフェース505を介して、記憶部508にインストールすることができる。また、プログラムは、有線または無線の伝送媒体を介して、通信部509で受信し、記憶部508にインストールすることができる。その他、プログラムは、ROM502や記憶部508に、あらかじめインストールしておくことができる。
なお、コンピュータが実行するプログラムは、本明細書で説明する順序に沿って時系列に処理が行われるプログラムであっても良いし、並列に、あるいは呼び出しが行われたとき等の必要な段階で処理が行われるプログラムであっても良い。
また、本明細書において、記録媒体に記録されるプログラムを記述するステップは、記載された順序に沿って時系列的に行われる処理はもちろん、必ずしも時系列的に処理されなくとも、並列的あるいは個別に実行される処理をも含むものである。
また、本明細書において、システムとは、複数のデバイス(装置)により構成される装置全体を表すものである。
なお、本開示における実施の形態は、上述した実施の形態に限定されるものではなく、本開示の要旨を逸脱しない範囲において種々の変更が可能である。
例えば、本開示は、1つの機能を、ネットワークを介して複数の装置で分担、共同して処理するクラウドコンピューティングの構成をとることができる。
また、以上において、1つの装置(または処理部)として説明した構成を分割し、複数の装置(または処理部)として構成するようにしてもよい。逆に、以上において複数の装置(または処理部)として説明した構成をまとめて1つの装置(または処理部)として構成されるようにしてもよい。また、各装置(または各処理部)の構成に上述した以外の構成を付加するようにしてももちろんよい。さらに、システム全体としての構成や動作が実質的に同じであれば、ある装置(または処理部)の構成の一部を他の装置(または他の処理部)の構成に含めるようにしてもよい。つまり、本技術は、上述した実施の形態に限定されるものではなく、本技術の要旨を逸脱しない範囲において種々の変更が可能である。
以上、添付図面を参照しながら本開示の好適な実施形態について詳細に説明したが、開示はかかる例に限定されない。本開示の属する技術の分野における通常の知識を有するのであれば、特許請求の範囲に記載された技術的思想の範疇内において、各種の変更例また修正例に想到し得ることは明らかであり、これらについても、当然に本開示の技術的範囲に属するものと了解される。
なお、本技術は以下のような構成も取ることができる。
(1) 入力画像から検出された複数の人物の周辺領域に対して優先度をそれぞれ設定する優先度設定部と、
前記優先度設定部より設定された優先度を用いて選択された人物の周辺領域に基づいて、前記入力画像から抽出された人体領域に対する人体モデルの姿勢を逐次的に推定する姿勢推定部と
を備える画像処理装置。
(2) 前記優先度設定部は、顔検出における顔検出枠の大きさによって優先度を設定する
前記(1)に記載の画像処理装置。
(3) 前記優先度設定部は、人体のデプス情報に基づく人体が位置する近さによって優先度を設定する
前記(1)に記載の画像処理装置。
(4) 前記優先度設定部は、1つ前の処理フレームの複数の人物の姿勢推定結果から算出される距離値を用いて、優先度を設定する
前記(1)に記載の画像処理装置。
(5) 前記入力画像から個人を特定する個人特定部
をさらに備え、
前記姿勢推定部は、ユーザが、前記個人特定部により特定された個人の優先度を指定するためのインタフェースにより指定された優先度に基づいて、前記入力画像から抽出された人体領域に対する人体モデルの姿勢を逐次的に推定する
前記(1)乃至(4)のいずれかに記載の画像処理装置。
(6) 前記個人特定部は、顔識別により前記入力画像から個人を特定する
前記(5)に記載の画像処理装置。
(7) 前記個人特定部は、前記人物が所持する検出または識別可能なコントローラ、または、前記人物に装着されたマーカにより前記入力画像から個人を特定する
前記(5)に記載の画像処理装置。
(8) 前記個人特定部は、前記人物の周辺領域における特徴的な色により前記入力画像から個人を特定する
前記(5)に記載の画像処理装置。
(9) 前記複数の人物の周辺領域のうち、前記優先度の低い領域を排除領域として設定する排除領域設定部を
さらに備え
前記姿勢推定部は、前記排除領域設定部により設定された排除領域を排除して、前記入力画像から抽出された人体領域に対する人体モデルの姿勢を逐次的に推定する
前記(1)乃至(9)のいずれかに記載の画像処理装置。
(10) 前記姿勢推定部は、前記排除領域設定部により設定された排除領域においては、前記入力画像から抽出された人体領域に対する人体モデルの姿勢を逐次的に推定することを禁止する
前記(9)に記載の画像処理装置。
(11) 処理対象の人数を制限する人数制限部を
さらに備え、
前記指定推定部は、前記人数制限部により制限された人数以上の人体モデルの姿勢を逐次的に推定することを禁止する
前記(1)乃至(10)のいずれかに記載の画像処理装置。
(12) 前記人数制限部は、顔検出における顔の数に基づいて処理対象の人数を制限する
前記(11)に記載の画像処理装置。
(13) 前記人数制限部は、ユーザによる指定に基づいて処理対象の人数を制限する
前記(11)に記載の画像処理装置。
(14) 画像処理装置が、
入力画像から検出された複数の人物の周辺領域に対して優先度をそれぞれ設定し、
設定された優先度を用いて選択された人物の周辺領域に基づいて、前記入力画像から抽出された人体領域に対する人体モデルの姿勢を逐次的に推定する
画像処理方法。
1 画像処理装置, 11 UI部, 12 人体領域抽出部, 13 人物検出特定部, 14 推定目標生成部, 15 最適化順序/領域生成部, 16 姿勢最適化部, 17 推定目標記憶部, 51 制御部, 52 初期姿勢推定部, 53 重みマップ生成部, 54 エネルギ最適化部, 55 姿勢情報記憶部

Claims (14)

  1. 入力画像から検出された複数の人物の周辺領域に対して優先度をそれぞれ設定する優先度設定部と、
    前記優先度設定部より設定された優先度を用いて選択された人物の周辺領域に基づいて、前記入力画像から抽出された人体領域に対する人体モデルの姿勢を逐次的に推定する姿勢推定部と
    を備える画像処理装置。
  2. 前記優先度設定部は、顔検出における顔検出枠の大きさによって優先度を設定する
    請求項1に記載の画像処理装置。
  3. 前記優先度設定部は、人体のデプス情報に基づく人体が位置する近さによって優先度を設定する
    請求項1に記載の画像処理装置。
  4. 前記優先度設定部は、1つ前の処理フレームの複数の人物の姿勢推定結果から算出される距離値を用いて、優先度を設定する
    請求項1に記載の画像処理装置。
  5. 前記入力画像から個人を特定する個人特定部
    をさらに備え、
    前記姿勢推定部は、ユーザが、前記個人特定部により特定された個人の優先度を指定するためのインタフェースにより指定された優先度に基づいて、前記入力画像から抽出された人体領域に対する人体モデルの姿勢を逐次的に推定する
    請求項1に記載の画像処理装置。
  6. 前記個人特定部は、顔識別により前記入力画像から個人を特定する
    請求項5に記載の画像処理装置。
  7. 前記個人特定部は、前記人物が所持する検出または識別可能なコントローラ、または、前記人物に装着されたマーカにより前記入力画像から個人を特定する
    請求項5に記載の画像処理装置。
  8. 前記個人特定部は、前記人物の周辺領域における特徴的な色により前記入力画像から個人を特定する
    請求項5の記載の画像処理装置。
  9. 前記優先度設定部は、前記複数の人物の周辺領域のうち、前記優先度の低い領域を排除領域として設定し、
    前記姿勢推定部は、前記優先度設定部により設定された排除領域を排除して、前記入力画像から抽出された人体領域に対する人体モデルの姿勢を逐次的に推定する
    請求項1の記載の画像処理装置。
  10. 前記姿勢推定部は、前記優先度設定部により設定された排除領域においては、前記入力画像から抽出された人体領域に対する人体モデルの姿勢を逐次的に推定することを禁止する
    請求項9の記載の画像処理装置。
  11. 処理対象の人数を制限する人数制限部を
    さらに備え、
    前記姿勢推定部は、前記人数制限部により制限された人数以上の人体モデルの姿勢を逐次的に推定することを禁止する
    請求項1の記載の画像処理装置。
  12. 前記人数制限部は、顔検出における顔の数に基づいて処理対象の人数を制限する
    請求項11の記載の画像処理装置。
  13. 前記人数制限部は、ユーザによる指定に基づいて処理対象の人数を制限する
    請求項11の記載の画像処理装置。
  14. 画像処理装置が、
    入力画像から検出された複数の人物の周辺領域に対して優先度をそれぞれ設定し、
    設定された優先度を用いて選択された人物の周辺領域に基づいて、前記入力画像から抽出された人体領域に対する人体モデルの姿勢を逐次的に推定する
    画像処理方法。
JP2015237227A 2015-12-04 2015-12-04 画像処理装置および方法 Pending JP2017102808A (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2015237227A JP2017102808A (ja) 2015-12-04 2015-12-04 画像処理装置および方法
US15/353,882 US10474876B2 (en) 2015-12-04 2016-11-17 Image processing apparatus and image processing method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015237227A JP2017102808A (ja) 2015-12-04 2015-12-04 画像処理装置および方法

Publications (1)

Publication Number Publication Date
JP2017102808A true JP2017102808A (ja) 2017-06-08

Family

ID=58799175

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015237227A Pending JP2017102808A (ja) 2015-12-04 2015-12-04 画像処理装置および方法

Country Status (2)

Country Link
US (1) US10474876B2 (ja)
JP (1) JP2017102808A (ja)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109145867A (zh) * 2018-09-07 2019-01-04 北京旷视科技有限公司 人体姿态估计方法、装置、系统、电子设备、存储介质
WO2019198696A1 (ja) * 2018-04-11 2019-10-17 株式会社アジラ 行動推定装置
JP2019185421A (ja) * 2018-04-11 2019-10-24 株式会社アジラ 対象数特定装置
CN110826405A (zh) * 2019-09-30 2020-02-21 许昌许继软件技术有限公司 一种基于人体体态图像的设备控制方法及装置
US11048924B1 (en) 2018-05-27 2021-06-29 Asilla, Inc. Action-estimating device
WO2021250931A1 (ja) * 2020-06-12 2021-12-16 株式会社ダイセル 骨格検出システム及び作業管理装置

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10430966B2 (en) * 2017-04-05 2019-10-01 Intel Corporation Estimating multi-person poses using greedy part assignment
US10891922B1 (en) * 2018-07-17 2021-01-12 Apple Inc. Attention diversion control
CN109344803A (zh) * 2018-10-29 2019-02-15 广东工业大学 一种姿态特征提取方法及相关装置
GB2578789A (en) * 2018-11-09 2020-05-27 Sony Corp A method, apparatus and computer program for image processing
US10937173B2 (en) * 2018-11-15 2021-03-02 Qualcomm Incorporated Predicting subject body poses and subject movement intent using probabilistic generative models

Family Cites Families (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7003134B1 (en) * 1999-03-08 2006-02-21 Vulcan Patents Llc Three dimensional object pose estimation which employs dense depth information
JP4148281B2 (ja) * 2006-06-19 2008-09-10 ソニー株式会社 モーションキャプチャ装置及びモーションキャプチャ方法、並びにモーションキャプチャプログラム
JP4594945B2 (ja) * 2007-02-13 2010-12-08 株式会社東芝 人物検索装置および人物検索方法
EP2104338A3 (en) * 2008-03-19 2011-08-31 FUJIFILM Corporation Autofocus system
JP2011128992A (ja) * 2009-12-18 2011-06-30 Canon Inc 情報処理装置およびその処理方法
EP2395478A1 (en) * 2010-06-12 2011-12-14 Toyota Motor Europe NV/SA Monocular 3D pose estimation and tracking by detection
WO2012046392A1 (ja) * 2010-10-08 2012-04-12 パナソニック株式会社 姿勢推定装置及び姿勢推定方法
US9008436B2 (en) * 2011-10-28 2015-04-14 Intellectual Ventures Fund 83 Llc Image recomposition from face detection and facial features
JP5877053B2 (ja) * 2011-12-14 2016-03-02 パナソニック株式会社 姿勢推定装置および姿勢推定方法
US9058663B2 (en) * 2012-04-11 2015-06-16 Disney Enterprises, Inc. Modeling human-human interactions for monocular 3D pose estimation
US9846845B2 (en) * 2012-11-21 2017-12-19 Disney Enterprises, Inc. Hierarchical model for human activity recognition
JP6088468B2 (ja) * 2014-07-31 2017-03-01 富士フイルム株式会社 画像処理装置、画像処理方法、動画公開システム、動画公開方法、プログラムおよび記録媒体
GB201501311D0 (en) * 2015-01-27 2015-03-11 Apical Ltd Method, system and computer program product
US10572777B2 (en) * 2016-03-11 2020-02-25 Nec Corporation Deep deformation network for object landmark localization
JP6831769B2 (ja) * 2017-11-13 2021-02-17 株式会社日立製作所 画像検索装置、画像検索方法、及び、それに用いる設定画面

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019198696A1 (ja) * 2018-04-11 2019-10-17 株式会社アジラ 行動推定装置
JP2019185421A (ja) * 2018-04-11 2019-10-24 株式会社アジラ 対象数特定装置
US11482046B2 (en) 2018-04-11 2022-10-25 Asilla, Inc. Action-estimating device
US11048924B1 (en) 2018-05-27 2021-06-29 Asilla, Inc. Action-estimating device
CN109145867A (zh) * 2018-09-07 2019-01-04 北京旷视科技有限公司 人体姿态估计方法、装置、系统、电子设备、存储介质
CN109145867B (zh) * 2018-09-07 2021-08-10 北京旷视科技有限公司 人体姿态估计方法、装置、系统、电子设备、存储介质
CN110826405A (zh) * 2019-09-30 2020-02-21 许昌许继软件技术有限公司 一种基于人体体态图像的设备控制方法及装置
WO2021250931A1 (ja) * 2020-06-12 2021-12-16 株式会社ダイセル 骨格検出システム及び作業管理装置
JP2021196783A (ja) * 2020-06-12 2021-12-27 株式会社ダイセル 骨格検出システム及び作業管理装置
JP7464451B2 (ja) 2020-06-12 2024-04-09 株式会社ダイセル 骨格検出システム及び作業管理装置

Also Published As

Publication number Publication date
US10474876B2 (en) 2019-11-12
US20170161547A1 (en) 2017-06-08

Similar Documents

Publication Publication Date Title
JP2017102808A (ja) 画像処理装置および方法
JP4829141B2 (ja) 視線検出装置及びその方法
WO2019091417A1 (zh) 基于神经网络的识别方法与装置
JP5552519B2 (ja) 顔特徴ベクトルの構築
KR20190100011A (ko) 수술영상을 이용한 수술정보 제공 방법 및 장치
CN111191599A (zh) 姿态识别方法、装置、设备及存储介质
JP6793151B2 (ja) オブジェクトトラッキング装置、オブジェクトトラッキング方法およびオブジェクトトラッキングプログラム
US11170246B2 (en) Recognition processing device, recognition processing method, and program
CN115244495A (zh) 针对虚拟环境运动的实时式样
JP2011146796A5 (ja)
KR20220028654A (ko) 미러 디스플레이를 이용하여 태권도 동작 코칭 서비스를 제공하는 장치 및 방법
JP2014182480A (ja) 人物認識装置、及び方法
US11282257B2 (en) Pose selection and animation of characters using video data and training techniques
JP6362085B2 (ja) 画像認識システム、画像認識方法およびプログラム
JP2016510144A (ja) ナチュラルユーザインプットの関与の検出
JP2005242567A (ja) 動作評価装置及び方法
JP6906273B2 (ja) 映像データから人の骨格位置の変位の軌跡を描写するプログラム、装置及び方法
US20160110909A1 (en) Method and apparatus for creating texture map and method of creating database
US10546406B2 (en) User generated character animation
JP2009288917A (ja) 情報処理装置、情報処理方法、およびプログラム
JP2017033556A (ja) 画像処理方法及び電子機器
JP2015114946A (ja) 画像処理装置、プログラムおよび画像処理方法
CN108292437B (zh) 图像处理装置和方法
CN102136139B (zh) 目标姿态分析装置及其目标姿态分析方法
JP2019200774A (ja) 画像合成装置、画像合成方法及びプログラム