JP6723798B2 - 情報処理装置、方法、プログラム - Google Patents
情報処理装置、方法、プログラム Download PDFInfo
- Publication number
- JP6723798B2 JP6723798B2 JP2016077328A JP2016077328A JP6723798B2 JP 6723798 B2 JP6723798 B2 JP 6723798B2 JP 2016077328 A JP2016077328 A JP 2016077328A JP 2016077328 A JP2016077328 A JP 2016077328A JP 6723798 B2 JP6723798 B2 JP 6723798B2
- Authority
- JP
- Japan
- Prior art keywords
- feature
- orientation
- distribution
- image
- added
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
- G06T7/73—Determining position or orientation of objects or cameras using feature-based methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
- G06F3/012—Head tracking input arrangements
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/0304—Detection arrangements using opto-electronic means
- G06F3/0325—Detection arrangements using opto-electronic means using a plurality of light emitters or reflectors or a plurality of detectors forming a reference frame from which to derive the orientation of the object, e.g. by triangulation or on the basis of reference deformation in the picked up image
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/20—Scenes; Scene-specific elements in augmented reality scenes
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30204—Marker
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30244—Camera pose
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/24—Aligning, centring, orientation detection or correction of the image
- G06V10/245—Aligning, centring, orientation detection or correction of the image by locating a pattern; Special marks for positioning
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Human Computer Interaction (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Multimedia (AREA)
- Image Analysis (AREA)
- Length Measuring Devices By Optical Means (AREA)
- Image Processing (AREA)
- Closed-Circuit Television Systems (AREA)
- Studio Devices (AREA)
Description
本実施形態ではカメラ位置姿勢に基づいて現実世界の画像に仮想コンテンツを重畳表示するMRシステムの事前セットアップにおける本発明の実施形態の一例を説明する。本MRシステムはヘッドマウントディスプレイ(以下、頭部装着型表示装置またはHMD)に搭載されているカメラでシーンの画像を取得し(画像取得)、画像から特徴としてコーナー点を検出する。そして時系列で取得した画像間のコーナー点の対応に基づいてカメラの位置姿勢を算出しカメラ位置姿勢に基づいて取得画像上に仮想コンテンツを重畳して表示する。本実施形態ではユーザーがMRシステムを使用するシーンをHMDを装着して観察し、観察したシーンにおいてカメラ位置姿勢を高精度に計算するために好適な特徴追加位置、すなわちコーナー点が検出可能な模様を付与すべき位置を提示する方法を説明する。
ステップS301では、特徴分布取得部201が、カメラが観測し得る特徴の分布を取得する。本実施形態においてはHMD210に内蔵された撮像装置211から画像を取得し、その画像からコーナー点特徴を検出して得られるコーナー点の座標値のリストを、カメラが観測し得る特徴の分布とする。図4(a)は取得した画像の一例であり図4(b)は取得画像から検出したコーナー点を図示したものである。図中の黒丸が検出したコーナー点である。コーナー点を検出する方法は様々な方法が提案されているが、本実施形態では非特許文献1で開示されているコーナー点検出方法を用いる。
(ステップS302)
ステップS302では、特徴追加位置決定部202が、特徴の分布、具体的には画像上におけるコーナー点の位置の分布に基づいて特徴追加位置を決定する。本ステップの詳細な処理内容については、図5を用いて後述する。
ステップS303では、特徴追加位置出力部203が、ステップS302で決定した特徴追加位置を図示する画像、具体的にはステップS302で算出した追加位置に対応する矩形領域に半透明の色を付けた画像を生成しHMD210の表示装置212に出力する。HMD210は、撮像装置211で撮像した画像に特徴追加位置を図示する画像を重畳してディスプレイに出力することで特徴追加位置を提示する。図6(a)は図4(a)で示した画像がカメラで撮影されたときに特徴追加位置を提示する画像の一例である。601のように色付けされた分割領域が特徴を追加すべき位置を表す。なお、分割領域を色付けして提示する以外にも、例えば円や吹き出しといった領域を囲む図形や矢印で追加すべき位置を指示しても良い。また、ステップS303で決定した特徴追加すべき位置が一つもない場合は、特徴を追加しなくてもカメラ位置姿勢計算の品質が十分に高い旨を表示してもよい。
ステップS501では、特徴追加位置決定部202が、ステップS301で取得した特徴の分布に対して良し悪しを評価する評価値を算出して保持する。評価値は画像中のコーナー点の位置の分布の均一度を表す値であり次の手順で任意の特徴の分布に対して算出できる。すなわち画像を互いに重複しない所定のサイズの矩形領域に分割しそれぞれの分割領域に対して当該領域にコーナー点が一つ以上含まれる場合は評価値に1を加算して得られる総和を評価値とする。すなわち、矩形領域ごとにコーナー点の数をカウントし、1つ以上の場合に、評価値を1加算する。ここで矩形領域の大きさは小さくすればするほど、細かく評価できるようになるが、少なくともコーナー点が検出できる程度の大きさになるようにすることが必要であるし計算負荷も増える。また、矩形領域の大きさを画像全体に対してあまりにも大きくしてしまうと矩形領域の数が少なくなりすぎて(例えば5以下など)カメラの位置姿勢の計算において安定しなくなる。以上に鑑みて矩形領域をどのような大きさで設定するかを決定すればよい。
ステップS502では、特徴追加位置決定部202が、特徴を追加し得る複数の位置を特徴追加位置候補として生成する。具体的には、ステップS501と同様に画像を互いに重複しない所定のサイズの矩形領域に分割し、それぞれの矩形領域の中央を特徴追加位置候補として保持する。
ステップS503は、特徴追加位置決定部202が、ステップS502で生成した各特徴追加位置候補に対して処理を行うループである。
ステップS504では、特徴追加位置決定部202が、ステップS301で取得した特徴の分布に対して各特徴追加位置候補に特徴を追加した場合の分布に対してステップS501と同様に評価値を算出して保持する。
ステップS505では、特徴追加位置決定部202が、ステップS502で生成した特徴追加位置候補の中から各特徴追加位置候補において特徴を追加した場合の評価値の向上量(ステップS504で算出した評価値のステップS501で算出した評価値からの増分)が所定の値以上となる特徴追加位置候補を取り出す。本実施形態のステップS501で説明した方法で評価値を計算した場合、評価値の向上量は0か1である。ここでは上記所定の値を1として評価値の向上量が1である特徴追加位置候補を取り出す。
第1の実施形態では特徴の分布として画像上における二次元位置の分布を取得して特徴追加位置を決定したが、本実施形態では特徴の三次元位置の分布を取得して特徴追加位置を決定する。本実施形態では、第1の実施形態と特徴の分布の算出、特徴追加位置の決定方法が異なる。本実施形態ではHMDに、さらに三次元情報計測装置を備えることで撮像装置から取得した画像から検出されたコーナー点の三次元位置情報を取得する。そしてコーナー点の三次元位置の分布の均一度を表す評価値を算出し、この評価値を高くする特徴追加位置を決定する。以下、本実施形態の処理の詳細を説明する。
ステップS301では、特徴分布取得部201が、ユーザーが装着しているHMDが観測し得る特徴の分布を取得する。本実施形態においてはHMDが観測するコーナー点の三次元位置の分布を取得する。具体的にはHMD710に内蔵された撮像装置211から画像を取得し、その画像からコーナー点特徴を検出する。そして三次元計測装置711からコーナー点が検出された画素の距離値を取得することでコーナー点のカメラから見た三次元位置を算出する。
ステップS302では、特徴追加位置決定部202が、特徴の分布、具体的にはカメラから見たコーナー点の三次元位置の分布に基づいて特徴追加位置を決定する。本ステップの処理内容については図5を用いて後述する。
ステップS303では、特徴追加位置出力部203が、ステップS302で決定した特徴追加位置を図示する画像を生成してHMD710の表示装置212に出力することで提示する。具体的な方法は第1の実施形態と同様の方法で提示する。
ステップS501では、ステップS301で取得した特徴の分布の良し悪しを評価する評価値を算出して保持する。評価値は、画像中のコーナー点の三次元位置の分布の均一度を表す値であり次の手順で任意の特徴の分布に対して算出できる。
ステップS502では、特徴追加位置決定部202が、特徴を追加し得る複数の位置を、特徴追加位置候補として生成する。具体的には画像を所定の数の互いに重複しない矩形領域に分割し、それぞれの矩形領域に属する画素の三次元位置を三次元計測装置711から取得し、その平均をとることで算出した三次元位置のうち、カメラから見た距離が所定の範囲内に収まる三次元位置を特徴追加位置候補として保持する。矩形領域の分割については第1の実施形態と同様に行えばよい。
ステップS503は、特徴追加位置決定部202が、ステップS502で生成した各特徴追加位置候補に対して処理を行うループを開始する。
ステップS504では、特徴追加位置決定部202が、ステップS301で取得した特徴の分布に対して各特徴追加位置候補において特徴を追加した場合の分布においてステップS501と同様に評価値を算出して保持する。
ステップS505では、特徴追加位置決定部202が、ステップS502で生成した特徴追加位置候補の中から各特徴追加位置候補において特徴を追加した場合の評価値の向上量(ステップS504で算出した評価値のステップS501で算出した評価値からの増分)が所定の値以上となる特徴追加位置候補を取り出す。本実施形態のステップS501で説明した方法で評価値を計算した場合、評価値の向上(増大)量は0か1である。ここでは上記所定の値を1として評価値の向上量が1である特徴追加位置候補を取り出す。
(分布の均一さに加えて数を考慮した評価値とする)
第2の実施形態では、ステップS302において、コーナー点特徴を用いてカメラ位置姿勢計算するときのコーナー点の分布は空間中での位置が均一に分布している方が望ましいと考えたが、コーナー点の分布は空間中での位置が均一に且つ多数分布しているときに良好であると考えてもよい。カメラ位置姿勢を計算する場合、第2の実施形態で定義した分布の均一さを表す評価値が同じである特徴分布においてはその分布している特徴の数が多い方が各対応点間距離のランダムな誤差の影響を受けにくくなる。このため分布数も考慮することでより適切に特徴追加位置を決定することが可能になる。
ここでrは各ボクセル、Rは全ボクセルの集合、crはrに含まれるコーナー点数、α、βはそれぞれカメラ位置姿勢精度に対して特徴の分布の広さの影響と数の影響のバランスを決定する正の実数のパラメータである。第2の実施形態のステップS501で用いた評価値の定義を上記で説明した評価値の定義に置き換える。
(向きの分布の均一さも考慮して特徴追加位置を決定)
第2の実施形態では特徴の三次元位置の分布に基づいて特徴の分布を評価したが、特徴の向きの分布も考慮して特徴を追加位置と向きを決定し提示してもよい。本変形例では第2の実施形態で説明した装置構成において特徴が存在する面の法線方向を特徴の向きとして算出し、特徴の三次元位置と向きの分布が均一になるように特徴の追加位置・向きを決定する方法についてこれまでと処理内容が異なる部分を説明する。
ステップS301では、特徴分布取得部201が、MRシステムを使用するシーンにおいてカメラが観測し得る特徴の分布、具体的にはコーナー点の三次元位置と向きの分布を取得する。コーナー点の三次元位置については三次元計測装置711からコーナー点が検出された画素の距離値を取得することで算出する。コーナー点の向きについては三次元計測装置711からコーナー点が検出された近傍画素の距離値から検出した面の法線方向とする。
ステップS302では、特徴追加位置決定部202がコーナー点の三次元位置と向きの分布が均一になるように特徴追加位置・向きを決定する。
(分布範囲の広さを評価値とする。)
第1の実施形態では、ステップS302においてコーナー点の位置または向きの分布が均一になるよう特徴追加位置を決定したが本実施形態ではコーナー点の分布は画像中での位置または向きが広範囲に分布するよう特徴追加位置を決定する。これはコーナー点の位置または向きが固まって分布するよりも広範囲に分布している方がカメラ位置姿勢をより高精度に算出できるためである。この考えに基づき本実施形態ではコーナー点の分布の良し悪しを、コーナー点の分布範囲の広さを表す評価値で評価する。具体的には第1の実施形態においてステップS501の特徴の分布の良し悪しを評価する評価値をコーナー点の画像中における二次元位置の分散として定義する。
精度を評価値とする。精度は三次元の誤差伝搬で算出。
ステップS301では、特徴分布取得部201が、ユーザーが装着しているHMDの撮像装置211が観測し得る特徴の分布、具体的にはコーナー点の三次元位置とその検出精度を表す共分散行列の分布を取得する。コーナー点の三次元位置については第2の実施形態で説明した方法と同様の方法で取得する。コーナー点の検出精度を表す共分散行列については画像の量子化誤差に起因する各コーナー点の画像上での検出位置の最大誤差0。5pxを3σとしたガウス分布で近似し、σ2を対角成分に持つ行列とする。なお、検出位置の最大誤差の要因として量子化誤差以外の要因も考慮したい場合はカメラを静止させた状態で複数枚撮影した画像で特徴を検出し検出位置のばらつきを算出してもよい。
ステップS302では、特徴追加位置決定部202が特徴の分布、具体的にはコーナー点の三次元位置とその検出精度を表す共分散行列の分布に基づいて特徴追加位置を決定する。本ステップの処理内容については後述する。
ステップS303では、特徴追加位置出力部203がステップS302で決定した特徴追加位置を図示する画像を生成してHMDの表示装置212に出力する。具体的な方法は第2の実施形態と同様の方法で提示する。
ステップS501では、ステップS301で取得した特徴の分布の良し悪しを評価する評価値を算出して保持する。評価値はコーナー点の三次元位置とその検出精度を表す共分散行列の分布に基づいてカメラ位置姿勢を計算した場合の計算精度を表す値であり次の手順で任意の特徴の分布に対して算出できる。すなわち、(式2)により算出したカメラ位置姿勢の計算精度を表す共分散行列Sを評価値とする。
はn番目のコーナー点のx軸成分、y軸成分の分散である。J+はJの擬似逆行列である。Jはカメラ位置姿勢のヤコビ行列であり各コーナー点の画像上で観測される位置をカメラ位置姿勢を表す並進移動と回転の6パラメータで偏微分した係数行列である。
ステップS502では、特徴を追加し得る複数の位置を特徴追加位置候補として生成する(複数生成)。具体的には画像を互いに重複しない所定のサイズの矩形領域に分割し、それぞれの矩形領域に属する画素の三次元位置を三次元計測装置711から取得し、その平均をとることで算出した三次元位置のうち、カメラから見た距離が所定の範囲内に収まる三次元位置を特徴追加位置候補として保持する。
ステップS503では、ステップS502で生成した各特徴追加位置候補に対して処理を行うループである。
ステップS504では、ステップS301で取得した特徴の分布に対して各特徴追加位置候補において特徴を追加した場合の分布においてステップS501と同様に評価値を算出して保持する。
ステップS505では、ステップS502で生成した特徴追加位置候補の中から各特徴追加位置候補において特徴を追加した場合の評価値の向上量が所定の値以上となる特徴追加位置候補を取り出す。本実施形態においては評価値であるカメラ位置姿勢の計算精度を表す共分散行列を次の計算でスカラー値化して向上量を算出する。まず、カメラ位置姿勢の計算精度を表す共分散行列Sを所定の位置にある仮想的な基準点を算出したカメラ位置姿勢に基づいてカメラで撮影した画像に重畳する場合の描画位置の共分散行列に換算する。次に換算された共分散行列の最大固有値の二乗根を算出しこの値の特徴追加前後の差を評価値の向上量とする。
第1〜4の各実施形態では、ステップS302で特徴の分布の評価値に基づいて特徴追加位置を決定する際に評価値の向上量が所定の値よりも大きい特徴追加位置を取り出したが、本実施形態ではその他の取り出し基準として特徴追加位置候補の中から評価値の向上量の大きい上位所定の個数の特徴追加を取り出す方法と、別途目標評価値を取得し目標評価値を少量の特徴の追加で達成するために必要な特徴追加位置を特徴追加位置候補から取り出す方法をそれぞれ説明する。
各特徴追加位置候補に対して算出した評価値で特徴追加位置候補をソートし、上位所定の個数の特徴追加位置候補を取り出して提示する。上位所定の個数はユーザーが入力した値を用いてもよい。
所定の目標評価値を設定し、現在の特徴の分布においてその目標値に満たない場合に少量の特徴の追加で目標値を満たすために必要な特徴追加位置を取り出す。
ステップS801では、複数の特徴追加位置を保存するための特徴追加位置リストを空のリストで、特徴分布をステップS301で取得した特徴の分布で初期化する。
ステップS802は、ステップS301で取得した現在の特徴分布における特徴分布の評価値を計算し、評価値が目標評価値に満たない間繰り返し実行するループである。評価値はこれまでに説明した任意の実施形態のステップS501の方法で計算する。
ステップS502では、特徴を追加し得る複数の位置を特徴追加位置候補として生成する。具体的な方法はこれまでに説明したそれぞれの実施形態における図5のステップS502と同じである。
ステップS503はステップS502で生成した各特徴追加位置候補に対して処理を行うループである。
ステップS504では現在の特徴分布に対して各特徴追加位置候補において特徴を追加した場合の分布において、これまでに説明した各実施形態における図5のステップS501と同様の方法で評価値を算出して保持する。
ステップS803では、特徴追加位置候補の中から評価値が最も高い特徴追加位置候補を取り出し、特徴追加位置リストに追加する。
ステップS804では、ステップS803で追加した評価値が最も高い特徴追加位置候補を現在の特徴分布に追加する。
特徴追加位置リストに入っている全ての特徴追加位置をステップS303で提示する特徴追加位置として取り出す。
(分布の取得方法のバリエーション。実測画像ではなく三次元情報から生成した画像から取得)
第1〜5の実施形態では、ステップS301において特徴の分布をHMDで撮像した実写画像から取得したが、本実施形態では特徴の分布をシーンの三次元情報とカメラ位置姿勢に基づいて生成した画像から取得する。本実施形におけるステップS301の処理を説明する。
第1〜6の実施形態では一つのカメラの視点において特徴を追加すべき位置を決定し提示したが本実施形態ではMRシステムを使用するシーンにおいてHMDが取りうる複数のカメラ視点において特徴を追加すべき位置を決定・提示する方法を説明する。
第7の実施形態ではMRシステムを使用するシーンの三次元情報を取得していない場合に、複数のカメラ視点においてそれぞれ特徴を追加すべき位置を決定したが、本変形例では第6の実施形態のようにシーンの三次元情報を取得している場合に、位置姿勢の範囲全体を考慮して特徴を追加すべき位置を決定・提示する方法を説明する。
第1〜7の実施形態では自動的に特徴追加位置候補を生成したが、本実施形態ではユーザーが手動で複数の特徴追加位置候補を設定してその中から特徴分布の評価値を高くする特徴追加位置を決定する方法を説明する。本実施形態ではユーザーが特徴追加位置候補をHMDの撮像装置211が撮像取得した画像中で指定する方法を説明する。
第8の実施形態では、HMDの撮像装置211が撮影した画像上における特徴追加位置を二次元で指定している。
(特徴追加可能領域、不可能領域を仮想空間で指定。)
第8の実施形態では、特徴追加位置候補をそれぞれユーザーが指定したが、本変形例ではユーザーが特徴を追加し得る領域を指定する方法を説明する。
第8の実施形態の[変形例8−1]においてはユーザーが特徴物体の追加位置姿勢の候補を設定する際に特徴物体のモデル種類と位置姿勢を指定していた。
これまで説明した実施形態では特徴を追加すべき位置を提示したが、本実施形態では特徴を移動すべき位置を提示する方法を説明する。
これまでの実施形態では特徴を追加すべき位置を特定しユーザーに提示する方法を説明した。本実施形態ではコーナー点の分布、具体的にはコーナー点の密集度に基づいてカメラ位置姿勢を算出する精度を向上させる為に除去すべき特徴を決定して提示する方法を説明する。
(マーカー、blob特徴、エッジ特徴、輝度勾配の大きい画素などの特徴でもよい)
第1〜10の実施形態においては特徴としてコーナー点を用いた。しかし、カメラ位置姿勢を計算することができる特徴であり、属性として検出位置が取得できる特徴であれば本発明は同様の方法で実施可能である。例えば特許文献1に開示されているような識別子をコーディングしたマーカーを特徴としてもよい。
第1〜7の実施形態においてはステップS501で生成またはユーザーが指定する特徴追加位置候補は画像を矩形領域でサンプリングして生成した。しかし特徴を追加し得る複数の候補をもれなく生成できる方法であれば他の方法でも本発明の実施は可能である。例えば画像を色情報でセグメンテーションして得た各セグメントのうち一定の広さを持つセグメントの中央を特徴追加位置の候補としてもよい。また、第6の実施形態のようにシーンの距離情報を取得できる構成であれば距離情報から面でセグメンテーションして得た各セグメントのうち一定の広さを持つセグメントの中央を特徴追加位置候補としてもよい。このように一定の広さを持つセグメントの中央を特徴追加位置候補とすることで特徴を追加することが容易な特徴追加位置を提示することができる。
カメラで撮像した画像中で検出された特徴に基づいてカメラ位置姿勢を計算する装置に第1〜9の実施形態では特徴を追加すべき位置や位置姿勢を提示する機能を搭載させてもよい。こうすることでシーン中を動いてカメラの位置姿勢を計算する時の計算結果が悪かった時に適宜、カメラ位置姿勢計算結果を良くするために追加すべき特徴の位置や位置姿勢を提示させることができる。
本発明における特徴分布取得手段はカメラが観測し得る特徴の分布を取得できるものであればなんでもよい。その一例が第1〜4の実施形態で説明したカメラが撮影した画像から取得する方法である。その他に第6の実施形態で説明したようにシーンの三次元情報とカメラ位置姿勢に基づいてカメラが観測するであろう画像を生成して、その画像から取得してもよい。
(その他の実施形態)
また、本発明は、以下の処理を実行することによっても実現される。即ち、上述した実施形態の機能を実現するソフトウェア(プログラム)を、ネットワーク又は各種記憶媒体を介してシステム或いは装置に供給し、そのシステム或いは装置のコンピュータ(またはCPUやMPU等)がプログラムを読み出して実行する処理である。
Claims (19)
- 撮像装置によって撮像される画像から、前記撮像装置の位置姿勢を導出するために用いられる特徴を取得する取得手段と、
前記画像に含まれる複数の部分領域を、前記画像に存在しない新たな特徴を追加するための複数の候補領域として設定する設定手段と、
前記設定された複数の候補領域を評価する評価手段と、
前記評価された複数の候補領域に基づいて、前記新たな特徴を追加すべき位置と向きの少なくとも何れかを決定する決定手段と、
前記決定された位置と向きの少なくとも何れかを示す情報を前記画像に重畳して出力する出力手段とを備えることを特徴とする情報処理装置。 - 更に、前記取得された特徴に基づいて前記画像内における前記特徴の分布を取得する分布取得手段を備えることを特徴とする請求項1に記載の情報処理装置。
- 前記決定手段は、前記分布がより均一になるように、前記位置と向きの少なくとも何れかを決定することを特徴とする請求項2に記載の情報処理装置。
- 前記決定手段は、前記候補領域ごとに、前記取得された特徴の数をカウントし、前記カウントされた候補領域ごとの特徴の数に基づいて、前記画像内における前記特徴の分布がより均一になるように、前記追加すべき位置と向きの少なくとも何れかを決定することを特徴とする請求項1に記載の情報処理装置。
- 更に、前記特徴の三次元位置を求める手段を備え、
前記決定手段は、前記特徴の三次元位置の分布がより均一になるように、前記追加すべき位置と向きの少なくとも何れかを決定することを特徴とする請求項1に記載の情報処理装置。 - 前記決定手段は、前記取得された特徴の分布がより拡がるように、前記追加すべき位置と向きの少なくとも何れかを決定することを特徴とする請求項1に記載の情報処理装置。
- 前記決定手段は、前記取得された特徴の分布に新たに特徴を追加して得られる分布に基づいて導出される前記撮像装置の位置姿勢の精度が高くなるように、前記追加すべき位置と向きの少なくとも何れかを決定することを特徴とする請求項1に記載の情報処理装置。
- 更に、前記特徴の分布の評価値を求める評価手段を備えることを特徴とする請求項1乃至7のいずれか1項に記載の情報処理装置。
- 前記決定手段は、前記評価値が増大するように、前記追加すべき位置と向きの少なくとも何れかを決定することを特徴とする請求項8に記載の情報処理装置。
- 更に、前記評価値の目標値を取得する手段を備え、
前記決定手段は、前記評価値が、前記目標値を超える位置と向きの少なくとも何れかを、前記追加すべき位置と向きの少なくとも何れかとして決定する特徴とする請求項8に記載の情報処理装置。 - 前記決定手段は、前記評価値の向上量が所定の値よりも多い位置と向きの少なくとも何れかを、前記追加すべき位置と向きの少なくとも何れかとして決定することを特徴とする請求項8に記載の情報処理装置。
- 更に、現実のシーンのうち、前記特徴を追加可能な領域を設定する設定手段を備え、
前記決定手段は、前記設定された領域の中から、前記追加すべき位置を決定することを特徴とする請求項1乃至11のいずれか1項に記載の情報処理装置。 - 更に、現実のシーンのうち、前記特徴を追加しない領域を設定する第2の設定手段を備え、
前記決定手段は、前記第2の設定手段で設定された領域を除いた領域から、前記追加すべき位置を決定することを特徴とする請求項1乃至11のいずれか1項に記載の情報処理装置。 - 前記出力手段は、前記追加すべき位置と向きの少なくとも何れかに関する情報を、前記撮像装置で撮像した画像に重畳して外部の表示部に表示させることを特徴とする請求項1に記載の情報処理装置。
- 前記撮像装置は、頭部装着型表示装置に備え付けられていることを特徴とする請求項1乃至14のいずれか1項に記載の情報処理装置。
- 更に、前記特徴に基づいて前記撮像装置の位置姿勢を導出する導出手段を更に備えることを特徴とする請求項1乃至15のいずれか1項に記載の情報処理装置。
- 撮像装置によって撮像される現実のシーンに含まれ、前記撮像装置の位置姿勢を導出するために用いられる特徴を取得する手段と、
前記取得された特徴の分布に基づいて、新たに、前記現実のシーンに含まれる特徴のうち、削除すべき特徴を決定する手段と、
前記決定された特徴を出力する手段とを備えることを特徴とする情報処理装置。 - 撮像装置によって撮像される画像から、前記撮像装置の位置姿勢を導出するために用いられる特徴を取得する取得工程と、
前記画像に含まれる複数の部分領域を、前記画像に存在しない新たな特徴を追加するための複数の候補領域として設定する設定工程と、
前記設定された複数の候補領域を評価する評価工程と、
前記評価された複数の候補領域に基づいて、前記新たな特徴を追加すべき位置と向きの少なくとも何れかを決定する決定工程と、
前記決定された位置と向きの少なくとも何れかを示す情報を前記画像に重畳して出力する出力工程とを備えることを特徴とする情報処理方法。 - コンピュータを、
撮像装置によって撮像される画像から、前記撮像装置の位置姿勢を導出するために用いられる特徴を取得する取得手段と、
前記画像に含まれる複数の部分領域を、前記画像に存在しない新たな特徴を追加するための複数の候補領域として設定する設定手段と、
前記設定された複数の候補領域を評価する評価手段と、
前記評価された複数の候補領域に基づいて、前記新たな特徴を追加すべき位置と向きの少なくとも何れかを決定する決定手段と、
前記決定された位置と向きの少なくとも何れかを示す情報を前記画像に重畳して出力する出力手段とを備えることを特徴とする情報処理装置の各手段として機能させるためのプログラム。
Priority Applications (4)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020177035740A KR101992044B1 (ko) | 2015-05-20 | 2016-05-13 | 정보 처리 장치, 방법, 및 컴퓨터 프로그램 |
EP16796100.2A EP3298590B1 (en) | 2015-05-20 | 2016-05-13 | Information processing apparatus, method, and program |
US15/574,814 US10430967B2 (en) | 2015-05-20 | 2016-05-13 | Information processing apparatus, method, and program |
PCT/JP2016/002365 WO2016185704A1 (en) | 2015-05-20 | 2016-05-13 | Information processing apparatus, method, and program |
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2015102825 | 2015-05-20 | ||
JP2015102825 | 2015-05-20 |
Publications (3)
Publication Number | Publication Date |
---|---|
JP2016220198A JP2016220198A (ja) | 2016-12-22 |
JP2016220198A5 JP2016220198A5 (ja) | 2019-05-09 |
JP6723798B2 true JP6723798B2 (ja) | 2020-07-15 |
Family
ID=57578734
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2016077328A Active JP6723798B2 (ja) | 2015-05-20 | 2016-04-07 | 情報処理装置、方法、プログラム |
Country Status (4)
Country | Link |
---|---|
US (1) | US10430967B2 (ja) |
EP (1) | EP3298590B1 (ja) |
JP (1) | JP6723798B2 (ja) |
KR (1) | KR101992044B1 (ja) |
Families Citing this family (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11417426B2 (en) | 2017-02-24 | 2022-08-16 | Masimo Corporation | System for displaying medical monitoring data |
US11024064B2 (en) | 2017-02-24 | 2021-06-01 | Masimo Corporation | Augmented reality system for displaying patient data |
CN116863107A (zh) * | 2017-03-06 | 2023-10-10 | 连株式会社 | 增强现实提供方法、装置以及非暂时性计算机可读介质 |
CN110809804B (zh) | 2017-05-08 | 2023-10-27 | 梅西莫股份有限公司 | 使用适配器将医疗系统与网络控制器配对的系统 |
JP7341736B2 (ja) * | 2019-06-06 | 2023-09-11 | キヤノン株式会社 | 情報処理装置、情報処理方法及びプログラム |
CN113642925B (zh) * | 2021-08-31 | 2023-12-12 | 重庆电子工程职业学院 | 基于mr混合现实的智慧物流规划布局方案评价系统 |
Family Cites Families (15)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7084887B1 (en) * | 1999-06-11 | 2006-08-01 | Canon Kabushiki Kaisha | Marker layout method, mixed reality apparatus, and mixed reality space image generation method |
WO2004025617A2 (en) * | 2002-09-12 | 2004-03-25 | Koninklijke Philips Electronics N.V. | Transflective liquid crystal display with reduced flicker |
JP4367926B2 (ja) | 2004-05-17 | 2009-11-18 | キヤノン株式会社 | 画像合成システムおよび画像合成方法、および画像合成装置 |
JP4689380B2 (ja) * | 2004-09-28 | 2011-05-25 | キヤノン株式会社 | 情報処理方法および装置 |
JP4926817B2 (ja) * | 2006-08-11 | 2012-05-09 | キヤノン株式会社 | 指標配置情報計測装置および方法 |
KR101188588B1 (ko) * | 2008-03-27 | 2012-10-08 | 주식회사 만도 | 모노큘러 모션 스테레오 기반의 주차 공간 검출 장치 및방법 |
JP5269707B2 (ja) * | 2009-07-01 | 2013-08-21 | 富士フイルム株式会社 | 画像合成装置及び方法 |
KR101622110B1 (ko) * | 2009-08-11 | 2016-05-18 | 삼성전자 주식회사 | 특징점 추출 방법 및 추출 장치, 이를 이용한 영상 기반 위치인식 방법 |
JP2011043419A (ja) * | 2009-08-21 | 2011-03-03 | Sony Corp | 情報処理装置、および情報処理方法、並びにプログラム |
JP2013141049A (ja) * | 2010-03-24 | 2013-07-18 | Hitachi Ltd | 世界座標系データベースを利用したサーバ及び端末 |
JP2013225245A (ja) | 2012-04-23 | 2013-10-31 | Sony Corp | 画像処理装置、画像処理方法及びプログラム |
US8965107B1 (en) * | 2012-05-18 | 2015-02-24 | Google Inc. | Feature reduction based on local densities for bundle adjustment of images |
GB2506338A (en) * | 2012-07-30 | 2014-04-02 | Sony Comp Entertainment Europe | A method of localisation and mapping |
JP2014123230A (ja) * | 2012-12-20 | 2014-07-03 | Sony Corp | 画像処理装置、画像処理方法、及び、プログラム |
US9406137B2 (en) * | 2013-06-14 | 2016-08-02 | Qualcomm Incorporated | Robust tracking using point and line features |
-
2016
- 2016-04-07 JP JP2016077328A patent/JP6723798B2/ja active Active
- 2016-05-13 EP EP16796100.2A patent/EP3298590B1/en active Active
- 2016-05-13 KR KR1020177035740A patent/KR101992044B1/ko active IP Right Grant
- 2016-05-13 US US15/574,814 patent/US10430967B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
EP3298590A1 (en) | 2018-03-28 |
KR20180008575A (ko) | 2018-01-24 |
EP3298590A4 (en) | 2019-01-02 |
JP2016220198A (ja) | 2016-12-22 |
US10430967B2 (en) | 2019-10-01 |
KR101992044B1 (ko) | 2019-06-21 |
EP3298590B1 (en) | 2021-01-06 |
US20180144497A1 (en) | 2018-05-24 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6723798B2 (ja) | 情報処理装置、方法、プログラム | |
US10701332B2 (en) | Image processing apparatus, image processing method, image processing system, and storage medium | |
US9773302B2 (en) | Three-dimensional object model tagging | |
JP6363863B2 (ja) | 情報処理装置および情報処理方法 | |
JPWO2020179065A1 (ja) | 画像処理装置、画像処理方法及びプログラム | |
US10304206B2 (en) | Selecting feature patterns and corresponding layout positions for viewpoint measurement | |
CN110460835B (zh) | 图像处理装置及其控制方法和计算机可读存储介质 | |
US11490062B2 (en) | Information processing apparatus, information processing method, and storage medium | |
JP2019114821A (ja) | 監視システム、装置、方法およびプログラム | |
JP2017103602A (ja) | 位置検出装置、位置検出方法及びプログラム | |
JP2018004310A (ja) | 情報処理装置、計測システム、情報処理方法及びプログラム | |
JP2014112055A (ja) | カメラ姿勢の推定方法およびカメラ姿勢の推定システム | |
JP6817742B2 (ja) | 情報処理装置およびその制御方法 | |
US20220405878A1 (en) | Image processing apparatus, image processing method, and image processing program | |
US20240362860A1 (en) | Calculation method and calculation device | |
EP4116931A1 (en) | Image processing device, image processing method, and image processing program | |
CN111742352A (zh) | 3d对象建模方法以及相关设备和计算机程序产品 | |
JP6938201B2 (ja) | 情報処理装置、情報処理方法およびプログラム | |
JP7341736B2 (ja) | 情報処理装置、情報処理方法及びプログラム | |
JP6606340B2 (ja) | 画像検出装置、画像検出方法およびプログラム | |
CN113076781A (zh) | 检测跌倒方法、装置、设备及存储介质 | |
JP6768400B2 (ja) | 情報処理装置、情報処理方法及びプログラム | |
KR20130081126A (ko) | 손 제스처 인식 방법 및 그 장치 | |
WO2016185704A1 (en) | Information processing apparatus, method, and program | |
JP2016058043A (ja) | 情報処理装置、情報処理方法、プログラム |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20190326 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20190326 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20200324 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20200416 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20200526 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20200624 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 6723798 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |