JP6942566B2 - 情報処理装置、情報処理方法およびコンピュータプログラム - Google Patents
情報処理装置、情報処理方法およびコンピュータプログラム Download PDFInfo
- Publication number
- JP6942566B2 JP6942566B2 JP2017166095A JP2017166095A JP6942566B2 JP 6942566 B2 JP6942566 B2 JP 6942566B2 JP 2017166095 A JP2017166095 A JP 2017166095A JP 2017166095 A JP2017166095 A JP 2017166095A JP 6942566 B2 JP6942566 B2 JP 6942566B2
- Authority
- JP
- Japan
- Prior art keywords
- image
- extraction
- information processing
- hand region
- depth
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/90—Determination of colour characteristics
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/12—Edge-based segmentation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/13—Edge detection
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/50—Depth or shape recovery
- G06T7/507—Depth or shape recovery from shading
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
- G06T7/73—Determining position or orientation of objects or cameras using feature-based methods
- G06T7/75—Determining position or orientation of objects or cameras using feature-based methods involving models
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/46—Descriptors for shape, contour or point-related descriptors, e.g. scale invariant feature transform [SIFT] or bags of words [BoW]; Salient regional features
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/107—Static hand or arm
- G06V40/11—Hand-related biometrics; Hand pose recognition
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10024—Color image
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10028—Range image; Depth image; 3D point clouds
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30004—Biomedical image processing
- G06T2207/30088—Skin; Dermal
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/46—Descriptors for shape, contour or point-related descriptors, e.g. scale invariant feature transform [SIFT] or bags of words [BoW]; Salient regional features
- G06V10/469—Contour-based spatial representations, e.g. vector-coding
- G06V10/476—Contour-based spatial representations, e.g. vector-coding using statistical shape modelling, e.g. point distribution models
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/20—Scenes; Scene-specific elements in augmented reality scenes
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/107—Static hand or arm
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Multimedia (AREA)
- Human Computer Interaction (AREA)
- Image Analysis (AREA)
- Optical Radar Systems And Details Thereof (AREA)
- Image Processing (AREA)
Description
本発明は、手領域を抽出するための情報処理装置、情報処理方法およびコンピュータプログラムに関する。
近年、現実空間に仮想空間の情報をリアルタイムに重ね合わせを行う複合現実感(Mixed Reality: MR)に関する研究が行われている。MRは、撮像装置によって撮像された撮像画像に撮像装置の位置姿勢に応じた仮想空間の画像(コンピュータグラフィックス: CG)を重畳した合成画像を表示する。MRを用いて臨場感のあるMRを体験するには、撮像画像に表示させたいCGを重畳するだけでなく、体験者とCGモデルとのインタラクションが重要である。例えば、手とCGモデルの位置関係を把握することがある。それを実現するには撮像画像の中から実際の手を抽出することが必要になる。
手領域(手の形状)を抽出するには、グラブカットのような領域分割手法、snakesやLevelSet法のような動的輪郭抽出を用いた手法、モデルフィッティングや特徴抽出などの学習ベースによる抽出手法などがある。何れの手法に対しても肌色の抽出によって初期の手領域を決定することが多く、適切な肌色のデータベース(色テーブル)を登録することが精度上で重要である。そのため、初期登録時に正確に肌色情報を登録できれば、精度よく手領域を抽出することが可能となる。
しかしながら、これらの肌色抽出方法は、初期登録した肌色情報と実際の手の肌色情報が変化した場合は精度が悪くなる。例えば、照明環境の変化や照明光の照射角度によって手に影が生じ、肌色情報が変化する場合がある。つまり、肌色抽出方法は外部環境の影響を受けやすい特徴を有する。
したがって、特定の領域を精度良く抽出するには、前述した撮像画像の色による抽出方法に加えて、別の手段を用いる場合がある。
特許文献1は、撮像環境が変化した場合でも、特徴部の検出精度の低下を防止することを開示している。特許文献1では、撮像画像と位置姿勢推定装置を組み合わせることで検出パラメータを調整するパラメータ調整手段を備えている。
特許文献2は、撮像カメラと距離計測装置を組み合わせることによって、計測対象の物体または装置自身が動く場合において距離計測装置の誤差の低減することを開示sいている。特許文献2においては、特定の領域を精度良く抽出するには、撮像装置と距離計測装置を組み合わせることが有効であることを示している。
体験者が臨場感のあるMRを体験するには、体験者の手を用いて、CGモデルとの位置関係を把握することや接触操作することが求められている。そのためには手領域を抽出する必要があるが、その方法として、手の肌色情報を初期登録して抽出する方法がある。しかしながら、初期登録時と肌色情報が変化した場合、例えば、照明環境の変化、照明角度によって生じる影等によっては手の抽出精度が悪くなる場合がある。手の抽出精度が悪いとCGモデルとの位置関係が誤り、リアリティの低下に繋がってしまう。
また、特許文献2で開示されているように、距離計測装置を用いた補正は有効であるが、距離計測装置自身の精度が不十分な場合がある。
そこで、本発明は、上記課題を鑑みてなされたものであり、手領域の抽出精度を向上することが可能な情報処理装置を提供することを目的とする。
物体までの距離を計測し、深度画像を取得する距離計測手段と、撮像装置から撮像した撮像画像を取得する画像取得手段と、前記撮像画像から手領域を抽出する抽出手段と、前記深度画像に前記撮像画像より抽出された手領域を投影する投影手段と、前記投影手段による投影の結果に基づき、前記手領域の抽出のずれを補正する補正手段と、を有することを特徴とする。
本発明によれば、手領域の抽出精度を向上することが可能な情報処理装置を提供することが出来る。
以下、添付図面を参照して本発明に適したな実施形態について詳細に説明する。
(第1の実施形態)
<構成>
図1に本実施形態に係る撮像装置、距離計測装置を制御する情報処理装置のブロック図を示す。
<構成>
図1に本実施形態に係る撮像装置、距離計測装置を制御する情報処理装置のブロック図を示す。
本実施形態では図1に示すように、撮像部100、表示部200、距離計測部300が情報処理装置1000に接続された構成となる。例えば、撮像部100はビデオシースルー型HMDやネットワークカメラ、表示部200はHMDやPCモニタなどのディスプレイ、距離計測部300は深度画像を取得可能な距離計測センサである。
また、情報処理装置1000は、画像取得部1010、データ記憶部1020、肌色情報取得部1030、ポリゴンモデル生成部1040から構成される。更に、深度画像取得部1050、カメラパラメータ取得部1060、ポリゴンモデル投影部1070、勾配画像生成部1080、ポリゴンモデルずれ補正部1090で構成される。情報処理装置1000は、コンピュータプログラムに基づき動作する一般的なパーソナルコンピュータによって一部の機能を実現することが可能である。
画像取得部1010は、撮像部100で撮像した撮像画像を取得し、取得画像をデータ記憶部1020に記憶する。
データ記憶部1020は、画像取得部1010から入力される撮像画像、ポリゴンモデル生成部1040から入力される手のポリゴンモデルを記憶する。更に、深度画像取得部1050から入力される深度画像およびポリゴンモデルずれ補正部1090で生成するポリゴン頂点の移動(補正)量を記憶する。
肌色情報取得部1030は、画像取得部1010より取得した撮像画像から肌色領域を抽出する。予め設定されている肌色情報と比較することで、撮像画像の画素値が肌色であるか判定し、肌色である手の形状の領域(手領域)を抽出した二値画像を生成する。
ポリゴンモデル生成部1040は、肌色情報取得部1030より肌色抽出を行うことで手領域を抽出し、手領域に合わせたポリゴンモデルを生成する。
深度画像取得部1050は、距離計測部300で計測された深度画像を取得する。
カメラパラメータ取得部1060は、予め設定されている基準位置に対して撮像カメラと距離計測装置の位置、姿勢情報、カメラ内部パラメータ(主点、焦点距離)を取得する。
ポリゴンモデル投影部1070は、深度画像取得部1050より取得した深度画像上にポリゴンモデル生成部1040より取得したポリゴンモデルを投影する。投影するには、カメラパラメータ取得部1060の位置、姿勢情報が必要となる。
勾配画像生成部1080は、深度画像取得部1050より取得した深度画像上の深度変勾配画像と、画像取得部1010より取得した撮像画像より色勾配画像を取得する。色勾配は輝度であっても良いし、RGB値であっても良く、色情報に依存する何れでも良い。
ポリゴンモデルずれ補正部1090は、深度画像上に投影されたポリゴンモデルと深度画像の勾配画像と撮像画像の勾配画像から実際の手の輪郭位置とポリゴンモデルの輪郭位置とのずれ量を画像上から計算する。ここで、深度画像上に投影されたポリゴンモデルは、ポリゴンモデル投影部1070により投影されたものであり、深度画像の勾配画像は、勾配画像生成部1080で生成されたものである。
<処理の手順>
図2は、本実施形態の補正処理の全体の処理フローである。図3に照明環境によって手に影が生じている例を示す。図3は、3000が実際の手の輪郭を示しており、3010の黒領域は影である。したがって、実際の手の輪郭は黒領域の外側に存在する。肌色抽出方法では、実際の手の影領域(黒領域)となっている領域を抽出することは容易ではない。そこで、距離計測装置の深度情報を用いることでこの課題を解決する。
図2は、本実施形態の補正処理の全体の処理フローである。図3に照明環境によって手に影が生じている例を示す。図3は、3000が実際の手の輪郭を示しており、3010の黒領域は影である。したがって、実際の手の輪郭は黒領域の外側に存在する。肌色抽出方法では、実際の手の影領域(黒領域)となっている領域を抽出することは容易ではない。そこで、距離計測装置の深度情報を用いることでこの課題を解決する。
図2のステップS2010では、ポリゴンモデル投影部1070に該当する。肌色情報取得部1030で生成された撮像画像にある肌色情報を、カメラパラメータ取得部1060より取得した撮像カメラと距離計測装置間の位置、姿勢情報を基に、深度画像取得部1050より取得した深度画像上に投影する。なお、この処理で撮像部100と距離計測部300のセンサの解像度は一致しなくても良い。
ステップS2020は、勾配画像生成部1080に該当し、深度画像上で隣接する画素に対して深度変化が大きくなる画素(一定閾値以上)位置を取得する。
ステップS2030は、深度画像上に投影されたポリゴンモデルの輪郭位置を基準にステップS2020で取得した深度勾配データより真の輪郭点を推定する。ここで具体的な推定方法について説明する。まず、輪郭点周辺の複数の画素から深度変化の大きい点を見つける。このとき、手領域内においては深度画像上の深度変化は小さく、手領域内と背景領域の境界は深度変化が大きくなる。つまり、この深度変化の大きい点が真の手の輪郭位置であると推定できる。そこで、次にポリゴンモデルの輪郭を深度変化の大きい位置まで移動する。ただし、ステップS2020で取得した深度変化はばらつきが大きくなる場合もあるので、色勾配データより真の手の輪郭位置を推定し、補正する必要がある。
ステップS2040では深度画像上で推定した輪郭位置に対して再び撮像画像の色勾配データからずれを補正する。ステップS2030の深度画像上で推定した輪郭点は必ずしも正確ではない場合がある。例えば、距離計測装置の距離精度が悪い場合や撮像カメラよりも解像度が低い場合である。その例を図4に示す。図4では、深度画像4000上に、ポリゴンモデル生成部1040によって生成されたポリゴンモデルをポリゴンモデル投影部1070で投影している。4010は前記ポリゴンモデルの輪郭である。また、実際の手の輪郭位置を4020の点線とし、勾配画像生成部1080で生成された深度画像上の勾配位置を黒丸点4030で示している。距離計測装置の精度が悪い、あるいは解像度が低い場合は実際の輪郭位置と一致しない場合がある。そこで、深度勾配データによって輪郭位置を推定して、さらに撮像画像の色勾配データから輪郭位置を推定すると精度良く抽出することができる。色勾配データとは、RGBや輝度等の色の変化量を意味している。したがって、予め、登録した肌色情報ではなく、隣接する画素に対する色変化の情報を取得する。これにより、影になっている手と背景領域との境界位置を区別することが可能になる。
図5に深度画像と撮像画像の同じ位置に対するそれぞれの深度、色変化の推移を示す。横軸は深度画像(a)、撮像画像(b)の水平方向の画素、縦軸は深度画像の深度(a)、撮像画像(b)の色変化値である。図5の520の位置に影領域があると、撮像画像では色変化が生じるが、深度画像上では変化はない。次に、深度画像上で深度変化が大きい位置(510)は、実際の手の輪郭位置付近である。したがって、勾配画像取得部1080で深度画像を取得することによって影の影響を受けずに輪郭位置を推定することが可能となる。ただし、深度画像はセンサ特性として精度が良くない場合があるので、深度画像のみで輪郭位置を決定すると正確な輪郭位置ではない。そこで、勾配画像取得部1080の撮像画像からその近接位置に対して色変化の大きい位置(530)を探索することで実際の輪郭位置を決定し、精度良く補正することができる。
次に、図6に距離計測装置と撮像装置から取得したデータの処理方法の評価関数を示す。この評価関数は、色情報(col)と深度情報(dep)に対して優先度を持たせた重み付け係数のW1とW2が与えられている。
図6に示した関数の重み付けの与え方について説明する。図2の処理フローに示したように、まず、深度情報から大まかな手の輪郭位置を推定し、その後、色情報から輪郭位置を決定する。この処理フローにおいて、重み付けを持った評価関数で実装すると、手領域の内側あるいは外側(輪郭位置ではない)に探索点がある場合は、深度画像の深度変化が小さいため、深度画像の重み付けを高く、色情報の重み付けを小さくする。これは、深度画像の勾配データによって実際の手の輪郭位置を推定することを意味している。逆に、深度画像の深度変化が大きい場合(輪郭位置)になると深度画像の重み付けを低く、色情報の重み付けを高くすればよい。これは、深度画像の勾配データによって推定された輪郭位置をさらに精度良く推定するために色変化から推定することを意味している。前記の評価関数や重み付けの与え方は一例であり、限定されるものではない。
次に図7に深度画像上にポリゴンモデルが投影できない場合の処理フローを示す。これまで説明した例は、深度画像上にすべての手領域が投影できていることが前提であった。しかしながら、撮像画像上の範囲内に手が表示されても深度画像上で画角、配置などによって手が映り込まない場合がある。その例を図8に示す。図8は深度画像8000上にポリゴンモデル生成部1040によって生成されたポリゴンモデルをポリゴンモデル投影部1070で投影している。8010は前記ポリゴンモデルの輪郭である。このようなケースはすべての手領域が投影できていない。
ステップS7010で深度画像に手のポリゴンモデルを投影し、ステップS7020において深度画像上にすべての手領域が投影できるか判断する。投影できるならば、ステップS7030で図2に示した処理を実施する。ステップS7040では、投影できない手領域があるならば、その範囲においては補正を実施しない。つまり、深度画像上に手領域を投影できる範囲では本特許で提案する処理フロー(図2)で補正を行い、深度画像上に映り込まない範囲においては初期登録した肌色による抽出法で抽出し、ステップS7050で合成する。
(第2の実施形態)
<構成>
図9に本実施形態に係る撮像装置、距離計測装置を制御する情報処理装置2000のブロック図を示す。
<構成>
図9に本実施形態に係る撮像装置、距離計測装置を制御する情報処理装置2000のブロック図を示す。
本実施形態では図1に対してポリゴンモデルずれ判定部1100を追加した構成である。
ポリゴンモデルずれ判定部1100は、ポリゴンモデル投影部1070によって投影されたポリゴンモデルが実際の手の位置とずれているか判断する。図10にその処理フローを示す。ステップS10010で深度画像にポリゴンモデルを投影し、ステップS10020で生成されたポリゴンモデルが実際の手と一致しているかどうか判断する。ポリゴンモデルと実際の手の位置がずれているか判断する方法の一例として、深度画像上の深度変化が大きい画素位置と撮像画像の色変化が大きい画素位置が一致したならば、一致していると判断する方法がある。ただし、解像度が異なることによるずれ、あるいは投影することによるずれが生じ、完全な一致にはならないため、閾値以下の画素ずれであれば、一致していると判断してもよい。ステップS10020でずれていると判断するならば、実施例1と同じ構成になり、ステップS10030でこれまでと同様の処理(S2030、S2040)を実施する。仮にずれていないと判断すれば、補正する必要がないため、ステップS10040で補正に必要な処理を停止する。最終的にステップS10050で補正されたポリゴンモデルあるいは補正なしのポリゴンモデルを表示させる。
本実施形態にすることによって、ポリゴンモデルずれ判定部1100によってずれていないと判断すると深度画像のデータが不要になる期間がある。したがって、ポリゴンモデルずれ判定部1100の判断結果に応じて深度画像データを使用しないようにすることで全体のデータ処理量を削減することができる。
(その他の実施例)
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
Claims (10)
- 物体までの距離を計測し、深度画像を取得する距離計測手段と、
撮像装置から撮像した撮像画像を取得する画像取得手段と、
前記撮像画像から手領域を抽出する抽出手段と、
前記深度画像に前記撮像画像より抽出された手領域を投影する投影手段と、
前記投影手段による投影の結果に基づき、前記手領域の抽出のずれを補正する補正手段と、を有することを特徴とする情報処理装置。 - 前記投影手段は、前記手領域をポリゴンモデルとして前記深度画像に投影することを特徴とする請求項1に記載の情報処理装置。
- 前記補正手段は、前記深度画像の深度の勾配に基づき、前記手領域の抽出のずれを補正することを特徴とする請求項1または2のいずれか1項に記載の情報処理装置。
- 前記補正手段は、前記撮像画像の色の勾配に基づき、前記手領域の抽出のずれを補正することを特徴とする請求項1乃至3のいずれか1項に記載の情報処理装置。
- 前記補正手段は、前記深度画像の深度の勾配と前記撮像画像の色の勾配とのそれぞれに対して優先度を持たせた評価関数に基づき、前記手領域の抽出のずれを補正することを特徴とする請求項1乃至4のいずれか1項に記載の情報処理装置。
- 前記補正手段は、前記深度画像が存在しない領域に対しては、前記手領域の抽出のずれの補正を行わないことを特徴とする請求項1乃至5のいずれか1以降に記載の情報処理装置。
- 前記補正手段により抽出のずれが補正された前記手領域を表示する表示手段を更に有することを特徴とする請求項1乃至6のいずれか1項に記載の情報処理装置。
- 前記抽出手段は、前記撮像画像の肌色の情報に基づき、前記手領域を抽出することを特徴とする請求項1乃至7のいずれか1項に記載の情報処理装置。
- 距離計測手段が、物体までの距離を計測し、深度画像を取得する距離計測工程と、
画像取得手段が、撮像装置から撮像した撮像画像を取得する画像取得工程と、
抽出手段が、前記撮像画像から手領域を抽出する抽出工程と、
投影手段が、前記深度画像に前記撮像画像より抽出された手領域を投影する投影工程と、
補正手段が、前記投影工程における投影の結果に基づき、前記手領域の抽出のずれを補正する補正工程と、を有することを特徴とする情報処理方法。 - コンピュータを、
物体までの距離を計測し、深度画像を取得する距離計測手段と、
撮像装置から撮像した撮像画像を取得する画像取得手段と、
前記撮像画像から手領域を抽出する抽出手段と、
前記深度画像に前記撮像画像より抽出された手領域を投影する投影手段と、
前記投影手段による投影の結果に基づき、前記手領域の抽出のずれを補正する補正手段と、を有することを特徴とする情報処理装置として機能させるためのコンピュータプログラム。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017166095A JP6942566B2 (ja) | 2017-08-30 | 2017-08-30 | 情報処理装置、情報処理方法およびコンピュータプログラム |
US16/115,252 US10593044B2 (en) | 2017-08-30 | 2018-08-28 | Information processing apparatus, information processing method, and storage medium |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017166095A JP6942566B2 (ja) | 2017-08-30 | 2017-08-30 | 情報処理装置、情報処理方法およびコンピュータプログラム |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2019045989A JP2019045989A (ja) | 2019-03-22 |
JP6942566B2 true JP6942566B2 (ja) | 2021-09-29 |
Family
ID=65435340
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2017166095A Expired - Fee Related JP6942566B2 (ja) | 2017-08-30 | 2017-08-30 | 情報処理装置、情報処理方法およびコンピュータプログラム |
Country Status (2)
Country | Link |
---|---|
US (1) | US10593044B2 (ja) |
JP (1) | JP6942566B2 (ja) |
Families Citing this family (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10643398B2 (en) * | 2018-07-23 | 2020-05-05 | Microsoft Technology Licensing, Llc | Depth ray layer for reduced visual noise |
CN110221690B (zh) * | 2019-05-13 | 2022-01-04 | Oppo广东移动通信有限公司 | 基于ar场景的手势交互方法及装置、存储介质、通信终端 |
CN116385260B (zh) * | 2022-05-19 | 2024-02-09 | 上海玄戒技术有限公司 | 图像处理方法、装置、芯片、电子设备及介质 |
CN117132667B (zh) * | 2023-10-26 | 2024-02-06 | 湖南半岛医疗科技有限公司 | 一种基于环境温度反馈的热图像处理方法及相关装置 |
Family Cites Families (17)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP4194316B2 (ja) | 2002-07-31 | 2008-12-10 | キヤノン株式会社 | 位置姿勢推定装置、位置姿勢推定方法、およびプログラム |
US9208571B2 (en) * | 2011-06-06 | 2015-12-08 | Microsoft Technology Licensing, Llc | Object digitization |
EP2674913B1 (en) * | 2012-06-14 | 2014-07-23 | Softkinetic Software | Three-dimensional object modelling fitting & tracking. |
US9111135B2 (en) * | 2012-06-25 | 2015-08-18 | Aquifi, Inc. | Systems and methods for tracking human hands using parts based template matching using corresponding pixels in bounded regions of a sequence of frames that are a specified distance interval from a reference camera |
JP5818773B2 (ja) * | 2012-11-22 | 2015-11-18 | キヤノン株式会社 | 画像処理装置、画像処理方法及びプログラム |
RU2014111793A (ru) * | 2014-03-27 | 2015-10-10 | ЭлЭсАй Корпорейшн | Процессор обработки изображений с распознаванием статических поз руки с использованием триангуляции и сглаживания контуров |
JP6417702B2 (ja) * | 2014-05-01 | 2018-11-07 | 富士通株式会社 | 画像処理装置、画像処理方法および画像処理プログラム |
KR102207856B1 (ko) * | 2014-05-14 | 2021-01-26 | 한국전자통신연구원 | 사용자의 손 영역을 검출하기 위한 사용자 손 검출 장치 및 그 동작 방법 |
US20170140552A1 (en) * | 2014-06-25 | 2017-05-18 | Korea Advanced Institute Of Science And Technology | Apparatus and method for estimating hand position utilizing head mounted color depth camera, and bare hand interaction system using same |
KR101865655B1 (ko) * | 2014-06-26 | 2018-06-11 | 한국과학기술원 | 증강현실 상호 작용 서비스 제공 장치 및 방법 |
JP6426968B2 (ja) * | 2014-10-08 | 2018-11-21 | キヤノン株式会社 | 情報処理装置およびその方法 |
US10269136B2 (en) * | 2015-04-29 | 2019-04-23 | Hewlett-Packard Development Company, L.P. | System and method for processing depth images which capture an interaction of an object relative to an interaction plane |
JP6587421B2 (ja) * | 2015-05-25 | 2019-10-09 | キヤノン株式会社 | 情報処理装置、情報処理方法、及びプログラム |
US10021371B2 (en) * | 2015-11-24 | 2018-07-10 | Dell Products, Lp | Method and apparatus for gross-level user and input detection using similar or dissimilar camera pair |
JP6651814B2 (ja) * | 2015-11-30 | 2020-02-19 | 富士通株式会社 | 領域抽出装置、領域抽出プログラム、及び領域抽出方法 |
KR101892737B1 (ko) * | 2016-03-17 | 2018-08-28 | 한국전자통신연구원 | 다시점 스테레오 장치 및 방법 |
JP2017182274A (ja) * | 2016-03-29 | 2017-10-05 | セイコーエプソン株式会社 | 情報処理装置およびコンピュータープログラム |
-
2017
- 2017-08-30 JP JP2017166095A patent/JP6942566B2/ja not_active Expired - Fee Related
-
2018
- 2018-08-28 US US16/115,252 patent/US10593044B2/en not_active Expired - Fee Related
Also Published As
Publication number | Publication date |
---|---|
US10593044B2 (en) | 2020-03-17 |
US20190066306A1 (en) | 2019-02-28 |
JP2019045989A (ja) | 2019-03-22 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP3951984B2 (ja) | 画像投影方法、及び画像投影装置 | |
US9759548B2 (en) | Image processing apparatus, projector and projector system including image processing apparatus, image processing method | |
US9519968B2 (en) | Calibrating visual sensors using homography operators | |
JP6363863B2 (ja) | 情報処理装置および情報処理方法 | |
WO2020259271A1 (zh) | 图像畸变校正方法和装置 | |
US20160086343A1 (en) | Contour line measurement apparatus and robot system | |
US9049397B2 (en) | Image processing device and image processing method | |
US8699749B2 (en) | Computer-readable storage medium, image processing apparatus, image processing system, and image processing method | |
JP6942566B2 (ja) | 情報処理装置、情報処理方法およびコンピュータプログラム | |
US20130163883A1 (en) | Apparatus for measuring three-dimensional position, method thereof, and program | |
JP2004117078A (ja) | 障害物検出装置及び方法 | |
JP4521235B2 (ja) | 撮影画像の変化抽出装置及び方法 | |
JP2004094491A (ja) | 顔向き推定装置および顔向き推定方法ならびに顔向き推定プログラム | |
JP2016197287A (ja) | 情報処理装置、情報処理方法、プログラム | |
JP2001101429A (ja) | 顔面の観測方法および顔観測装置ならびに顔観測処理用の記録媒体 | |
CN110832851B (zh) | 图像处理装置、图像变换方法 | |
JP2015106252A (ja) | 顔向き検出装置及び3次元計測装置 | |
US11847784B2 (en) | Image processing apparatus, head-mounted display, and method for acquiring space information | |
US10386930B2 (en) | Depth determining method and depth determining device of operating body | |
JP5976089B2 (ja) | 位置姿勢計測装置、位置姿勢計測方法、およびプログラム | |
JP2004062757A (ja) | 情報処理方法および撮像部位置姿勢推定装置 | |
CN101685000A (zh) | 影像边界扫描的计算机系统及方法 | |
JP2005092451A (ja) | 頭部検出装置及び頭部検出方法、並びに頭部検出プログラム | |
KR20220115223A (ko) | 다중 카메라 캘리브레이션 방법 및 장치 | |
JP4101478B2 (ja) | 人体端点検出方法及び装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20200827 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20210810 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20210908 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 6942566 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |
|
LAPS | Cancellation because of no payment of annual fees |