JP5693691B2 - 情報処理装置、その処理方法及びプログラム - Google Patents
情報処理装置、その処理方法及びプログラム Download PDFInfo
- Publication number
- JP5693691B2 JP5693691B2 JP2013218672A JP2013218672A JP5693691B2 JP 5693691 B2 JP5693691 B2 JP 5693691B2 JP 2013218672 A JP2013218672 A JP 2013218672A JP 2013218672 A JP2013218672 A JP 2013218672A JP 5693691 B2 JP5693691 B2 JP 5693691B2
- Authority
- JP
- Japan
- Prior art keywords
- model data
- dimensional model
- geometric feature
- information processing
- orientation
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Images
Landscapes
- Processing Or Creating Images (AREA)
- Studio Devices (AREA)
Description
(1).前フレームでのカメラの位置及び姿勢及び予め校正済みのカメラの固有パラメータに基づいて、前述の3次元モデルデータ(線分モデル)を画像上に投影する。
(2).投影された各線分を、画像上で一定間隔となるように分割し、分割点を設定する。そして、各分割点について、分割点を通過し向きが投影された線分の法線方向である線分(探索ライン)上でエッジ探索し、探索ライン上における輝度値の勾配が極大であり且つ分割点に最も近い点を対応エッジとして検出する。
(3).各分割点毎に検出された対応エッジと、投影される線分との間の画像上での距離の総和が最小となるようなカメラの位置及び姿勢の補正値を算出し、その補正値に基づいてカメラの位置及び姿勢を算出する。
(4).(3)の処理を収束するまで繰り返し最適化計算を行なう。
図1は、本発明の一実施の形態に係わる情報処理装置が組み込まれたビデオシースルー型のHMDの概要の一例を示す図である。なお、本実施形態においては、情報処理装置1をAR(拡張現実感:Augmented Reality)の位置合わせに用いる場合を例に挙げて説明するが、情報処理装置1は、勿論、これ以外の用途に使用されてもよい。
ステップS1010では、情報処理装置1は、初期化処理を行なう。初期化処理では、基準座標系における撮像装置100の位置及び姿勢を予測した予測値の設定、モデルデータ検証フラグ、利用可否フラグ、蓄積データのリセットを行なう。
ステップS1015では、位置姿勢計測の終了判定を行なう。利用者により、マウスやキーボードなどの入力手段を介して終了の指示が入力された場合には、ステップS1015でYESとなり、この処理を終了する。それ以外の場合には、ステップS1015でNOとなり、ステップS1020の処理に進む。
ステップS1020では、情報処理装置1は、画像取得部110において、撮像装置100が撮像した画像を装置内(情報処理装置1内)に取り込む。
ステップS1030では、情報処理装置1は、画像特徴検出部120において、ステップS1020で入力された画像上でエッジの検出を行なう。この処理の開始に際しては、各線分ごとのフレームデータNE1、ND1を0にセットする。なお、エッジ検出処理の詳細については、後述する。
ステップS1040では、情報処理装置1は、位置姿勢算出部140において、撮像装置100の位置及び姿勢を算出する。上述した通り、この算出は、ステップS1040で検出された画像上のエッジと、モデルデータ記憶部130に記憶された3次元モデルデータとに基づいて行なわれる。なお、位置姿勢算出処理の詳細については、後述する。
ステップS1050では、情報処理装置1は、モデルデータ検証部150において、検証モードであるか否かの判定を行なう。この判定は、モデルデータ検証フラグFMDの値に基づいて行なわれる。ここで、モデルデータの検証を行なう場合(FMD=TRUE)には、ステップS1060の処理に進み、検証を行なわない場合には、ステップS1015の処理に戻る。
ステップS1060では、情報処理装置1は、モデルデータ検証処理を開始する。この処理では、まず、モデルデータ記憶部130に格納されている3次元モデルデータを構成する各線分についての蓄積データNES及びNDSを更新する。具体的には、ステップS1030において更新された各線分についてのフレームデータNE1、ND1をそれぞれNES、NDSに加える。
ステップS1070では、情報処理装置1は、蓄積データ数NSを1増やす(蓄積データカウント++)。
ステップS1080では、情報処理装置1は、蓄積データ数NSが予め設定された蓄積データ数Nmaxと等しいか否かの判定を行なう。等しければ、ステップS1090の処理に進み、等しくなければ、ステップS1015の処理に戻り、ステップS1020の処理で次の画像、すなわち、次フレームの画像を取得する。
ステップS1090では、情報処理装置1は、モデルデータ検証部150において、3次元モデルデータを構成する線分各々について位置姿勢算出に利用するか否かの検証を行なう。なお、この処理についての詳細は、後述するが、各線分ごとの蓄積データNES、NDSに基づいてモデルデータ記憶部130に格納されたモデルデータを検証する。この処理が終わると、ステップS1015の処理に戻る。
まず、情報処理装置1は、ステップS1110においてモデル投影を行なう。ここで、モデル投影とは、撮像装置100の位置及び姿勢の予測値に基づいて、観察対象物体の3次元モデルデータを画像上に投影することである。より具体的には、3次元モデルデータを構成する各線分を画像上に投影したときの、画像上での直線の方程式を求める。直線の方程式は、線分の両端を画像上に投影し、画像上での両端の座標を結んだ直線の方程式となる。撮像装置100の位置及び姿勢の予測値には、図4に示すステップS1010の初期化直後であれば、その初期化によって得られる撮像装置100の位置及び姿勢を用いる。初期化直後でなければ、前フレームで算出された撮像装置100の位置及び姿勢を用いる。モデル投影を行なうためには、撮像装置100の位置及び姿勢とともに、焦点距離や主点位置などのカメラの固有パラメータが既知である必要がある。前述したように、本実施形態においては、カメラの固有パラメータは、予め計測されて分かっているものとする。また、線分が位置姿勢算出に利用できるか否かの利用可否フラグFuがFALSEの線分についてはモデル投影及びエッジ検出を行なわない。
次に、情報処理装置1は、ステップS1120において、ステップS1110で算出された直線の方程式を利用して投影された線分が画像上で等間隔に分割されるような分割点を設定する。この分割点は、3次元モデルデータを構成する線分全てに設定される。
次に、情報処理装置1は、ステップS1140において、分割点DPjが隠蔽されているか否かの判定を行なう。隠蔽とは、分割点DPjが3次元モデルの他の面に隠れている状態を指す。例えば、図7に破線で示される線分上の分割点DPjは、可視ではなく、隠蔽されていることになる。分割点DPjが可視か否かの判定は、例えば、非特許文献8に示されるように、グラフィクスハードウェアを利用して3次元モデルを描画した後、当該分割点を描画し、グラフィクスハードウェアにデプスバッファが更新されたか否かを確認することで行なえる。この結果、分割点DPjが隠蔽されている場合には、ステップS1160の処理に進み、そうでない場合には、該当する線分のフレームデータNE1の値に1を加えた後、ステップS1150の処理に進む。
ステップS1150では、情報処理装置1は、分割点DPjに対応するエッジを検出する。図8は、本実施形態に係わるエッジ検出方法の概要の一例を示す図である。図8に示すように、各分割点において、投影された線分の法線方向に平行で且つ分割点を通過する線分(以下、探索ライン)上においてエッジを1次元探索する。エッジは、探索ライン上において濃度勾配が極値をとる位置に存在する。濃度勾配の極値の絶対値に閾値を設け、極値の絶対値の小さいエッジは検出されないようにする。本実施形態では、探索ライン上でエッジが複数存在する場合には、最も分割点に近いエッジを対応点とし、その画像座標と分割点の3次元座標とを保持する。なお、本実施形態では最も分割点に近いエッジを対応点としているが、これに限られず、探索ライン上で濃度勾配の極値の絶対値が最も大きいエッジを対応点としてもよい。ステップS1150でエッジが検出された場合には、該当する線分のフレームデータND1の値に1を加える。
ステップS1160では、情報処理装置1は、jを1増分し、ステップS1170に進む。全ての分割点DPjについて処理が終了した場合には、ステップS1170でYESとなり、エッジ検出処理を終了する。終了していない場合には、ステップS1170でNOとなり、ステップS1140の処理に戻る。
ステップS1210では、情報処理装置1は、「検出されるべき総エッジ数NES」と、「実際に検出された総エッジ数NDS」とに基づいてモデルデータの検証を行なう。具体的には、NESに対するNDSの割合REDを算出する。
ステップS1220では、情報処理装置1は、ステップS1210で算出された割合REDと、閾値TEDとを比較する。比較の結果、REDが閾値TEDを越えていれば、ステップS1230でNOとなり、この処理は終了する。一方、REDが閾値TED未満となれば、ステップS1230でYESとなり、ステップS1240の処理に進む。
ステップS1240では、情報処理装置1は、線分の検出率が低いとして、該当する線分の利用可否フラグFuをFALSEに設定する。これにより、以後、位置姿勢算出処理にその線分を用いないようにする。例えば、図3に示すモデルデータにおいて、照明条件などによってL14に対応するエッジが検出されない場合には、L14のフラグFuがFALSEに設定され、位置姿勢算出処理に利用されないようになる。
ステップS1250では、情報処理装置1は、モデルデータ検証フラグFMDをFALSEにセットし、蓄積データDSを全て0にリセットし、この処理を終了する。
上述した実施形態1では、「検出されるべきエッジ数」に対する「実際に検出されたエッジ数」の割合を算出し、その割合に基づいて各線分を位置姿勢算出に使用するか否かの判定を行なっていた。これに対して、実施形態2では、位置姿勢算出を行なう際の誤差に基づいて、各線分を位置姿勢算出に使用するか否かの判定を行なう場合について説明する。なお、実施形態2における構成は、実施形態1を説明した図1及び図2と同様となるため、その説明については省略し、ここでは相違点について重点的に説明する。
ステップS2010では、情報処理装置1は、初期化処理を行なう。初期化処理では、基準座標系における撮像装置100の位置及び姿勢の予測値の設定、モデルデータ検証フラグ、利用可否フラグ、蓄積データのリセットを行なう。なお、撮像装置100の位置及び姿勢の予測値の設定やモデルデータ検証フラグ、利用可否フラグのリセットについては、ステップS1010と同一の処理となるためその説明は省略する。実施形態2においては、「蓄積データ数NS」、「検出されるべき総エッジ数NES」、「位置姿勢算出において実効的な情報として利用されたエッジ数NCS」を全て0にし、蓄積データDSをリセットする。
ステップS2015では、位置姿勢計測の終了判定を行なう。利用者により、マウスやキーボードなどの入力手段を介して終了の指示が入力された場合には、ステップS2015でYESとなり、この処理を終了する。それ以外の場合には、ステップS2015でNOとなり、ステップS2020の処理に進む。
ステップS2020では、情報処理装置1は、画像取得部110において、撮像装置100が撮像した画像を装置内(情報処理装置1内)に取り込む。
ステップS2030では、情報処理装置1は、画像特徴検出部120において、ステップS2020で入力された画像上でエッジの検出を行なう。この処理の開始に際しては、各線分ごとのフレームデータNE1、NC1を0にセットする。なお、エッジ検出処理は、実施形態1の図5と同様の処理となるため、その詳細な説明については省略する。実施形態1との相違点としては、実施形態1では、フレームデータであるNE1、ND1を更新していたのに対し、ステップS2030ではNE1のみを更新する点である。
ステップS2040では、情報処理装置1は、位置姿勢算出部140において、撮像装置100の位置及び姿勢を算出する。なお、位置姿勢算出処理は、実施形態1と同様の処理となるため、その詳細な説明については省略する。実施形態1との相違点としては、ステップS2030では、ステップS1030で説明した位置姿勢算出処理が終了した後、その算出過程で得られる重み行列W(数9参照)に基づいてフレームデータNC1を更新する。重み行列Wは、各分割点に対応する重みによって定義されており、この重みは、誤差d−rの値が小さいほど大きい。そこで、重みが一定値未満のエッジは、誤検出又は誤対応であるとみなし、重みが一定値以上のエッジの情報が実効的に利用されたとして、該当する分割点が属する線分のフレームデータNC1の値に1を加える。
ステップS2050では、情報処理装置1は、モデルデータ検証部150において、検証モードであるか否かの判定を行なう。この判定は、モデルデータ検証フラグFMDの値に基づいて行なわれる。モデルデータの検証を行なう場合(FMD=TRUE)には、ステップS2060の処理に進み、検証を行なわない場合には、ステップS2015の処理に戻る。
ステップS2060では、情報処理装置1は、モデルデータ検証処理を開始する。この処理では、まず、モデルデータ記憶部130に格納されている3次元モデルデータを構成する各線分について、蓄積データNES及びNCSを更新する。すなわち、ステップS2030、ステップS2040の処理において更新された各線分についてのフレームデータNE1、NC1をそれぞれNES、NCSに加える。
ステップS2070では、情報処理装置1は、蓄積データ数NSを1増やす(蓄積データカウント++)。
ステップS2080では、情報処理装置1は、蓄積データ数NSが予め設定された蓄積データ数Nmaxと等しいか否かの判定を行なう。等しければ、ステップS2090の処理に進み、等しくなければ、ステップS2015の処理に戻り、ステップS2020の処理で次の画像、すなわち、次フレームの画像を取得する。
ステップS2090では、情報処理装置1は、モデルデータ検証部150において、3次元モデルデータを構成する線分各々について位置姿勢算出に利用するか否かの検証を行なう。なお、この処理についての詳細は、後述するが、実施形態2においては、各線分ごとの蓄積データNES、NCSに基づいてモデルデータ記憶部130に格納されたモデルデータを検証する。この処理が終わると、ステップS2015の処理に戻る。
ステップS2110では、情報処理装置1は、「検出されるべき総エッジ数NES」と、「位置姿勢算出において実効的な情報として利用されたエッジ数NCS」とに基づいてモデルデータの検証を行なう。具体的には、NESに対するNCSの割合RECを算出する。
ステップS2120では、情報処理装置1は、ステップS2110で算出された割合RECと、閾値TECとを比較する。比較の結果、RECが閾値TECを越えていれば、ステップS2130でNOとなり、この処理は終了する。一方、RECが閾値TEC未満となれば、ステップS2130でYESとなり、ステップS2140の処理に進む。
ステップS2140では、情報処理装置1は、誤検出又は誤対応の可能性が高いとして、該当する線分の利用可否フラグFuをFALSEに設定する。これにより、以後、位置姿勢算出処理にその線分を用いないようにする。
ステップS2150では、情報処理装置1は、モデルデータ検証フラグFMDをFALSEにセットし、蓄積データDSを全て0にリセットし、この処理を終了する。
上述した実施形態1及び2では、本発明の一実施の形態に係わる情報処理装置1をARの位置合わせに適用した場合について説明した。これに対して、実施形態3においては、画像による線分データの計測に適用し、エッジを利用した位置合わせに適した線分データの計測を行なう場合を例に挙げて説明する。
ステップS3010では、情報処理装置3は、画像記憶部320において、線分の3次元モデルの算出に必要となる画像を保存する。非特許文献5では、「線分の3次元モデルを復元するのに3枚の画像における6つの対応が必要である」と述べられているため、ステップS3010では最低3枚以上の画像を保存する。画像の保存は、例えば、利用者が撮像装置300を自由に移動させながら、キーボードやマウスなどの入力手段により画像保存命令を入力することにより行なう。画像保存命令が入力されると、命令を入力した時点において、画像取得部310から入力される画像が画像記憶部320に保存される。なお、ここでは画像の保存を利用者の入力によって行なっているが、画面の変化に基づいて、自動的に画像を保存するようにしてもよい。
ステップS3020では、情報処理装置3は、ステップS3010において保存された画像上からラインを検出する。ラインの検出は、利用者の指示に基づいて行なわれる。具体的には、利用者が画像上でラインの始点と終点を指定することにより手動で行なう。なお、ラインの検出法は、これに限られず、画像上のラインを検出できるのであればよい。例えば、非特許文献7に示す方法によりエッジ検出を実施した後、ハフ変換によって画像上のラインを検出してもよい。
ステップS3030では、情報処理装置3は、ステップS3020において検出されたラインの画像間での対応付けを行なう。この対応付けは、利用者の指示に基づいて行なわれる。すなわち、利用者が手動で行なう。なお、ラインの対応付け方法は、これに限られず、例えば、ライン周辺の画素の情報を利用して、類似したラインを自動的に対応付けるようにしてもよい。
ステップS3040では、情報処理装置3は、モデルデータ算出部330において、ステップS3030で対応付けられたラインの情報に基づいて線分(ライン)の3次元モデルの算出を行なう。そして、算出した線分の3次元モデルと、画像上での端点の位置とから端点の3次元位置を算出し、図3に示す様式で線分の3次元モデルとしてモデルデータ記憶部340に格納する。なお、線分の3次元モデルとは、3次元空間における直線の方向ベクトルと通過位置とにより表されるものとする。線分の3次元モデルの算出は、例えば、非特許文献5に開示されている方法により行なう。線分の3次元モデルの算出方法は、これに限られず、画像間のラインの対応から算出する方法であればよい。
(1).各画像を撮像したときの撮像装置の姿勢についてランダムに初期値を与える。
(2).画像上でのラインの方程式、3次元空間中でのラインの方向ベクトル、撮像装置の姿勢が満たす制約条件をもとに、ラインの方向ベクトルを算出する。
(3).画像上でのラインの方程式、ラインの通過位置、撮像装置の位置が満たす制約条件をもとに、ラインの通過位置及び撮像装置の位置を算出する。
(4).(1)、(2)、(3)で得られた未知パラメータを最適化する。
(5).(4)で得られた未知パラメータを精度評価し、精度が悪ければ(1)に戻る。精度がよければ終了する。
ステップS3050では、情報処理装置3は、モデルデータ検証部350において、ステップS3040で算出された線分の3次元モデルの検証を行なう。具体的には、画像取得部310から入力される画像とモデルデータ記憶部340に格納された3次元モデルとに基づいて、実施形態1又は実施形態2で説明した方法でモデルデータを構成する各線分を評価する。そして、検出されるべき回数に対して実際の検出回数が少ない線分や、実効的な情報として使われる回数の少ない線分をモデルデータから削除する。これにより、モデルデータ記憶部340に格納された3次元モデルを更新する。
ステップS3060では、情報処理装置3は、ステップS3040の3次元モデル算出結果、ステップS3050のモデル検証結果を、例えば、表示するなどして利用者に提示する。これにより、利用者は、その3次元モデル算出結果やモデル検証結果を受け入れるか否かを判定する。利用者が結果を受け入れる場合には、その旨が情報処理装置3に入力され、ステップS3060でYESとなり、この処理は終了する。受け入れない場合には、その旨が情報処理装置3に入力され、ステップS3060でNOとなり、ステップS3010の処理に戻る。
上述した説明では、実施形態1及び2を用いて、各線分を位置姿勢算出に使用するか否かの判定について2パターン説明した。これら2パターンの処理は、必ずしも別々に実施する必要はなく、2つの判定方法を併用して実施してもよい。すなわち、本発明は、少なくともいずれかの判定処理を用いて実施できる。
上述した説明では、利用者の入力をトリガーとしてモデルデータの検証を行なっていた。しかし、モデルデータの検証を利用者の入力をトリガーとして行なうのではなく、自動的に行なってもよい。
上述した説明では、線分を位置姿勢算出に利用するか否かは、情報処理装置側で閾値Tに基づいて自動的に判定を行なっていたが、利用者が判定するようにしてもよい。
上述した説明では、3次元モデルデータを構成する線分各々について、位置姿勢算出に利用するか否かの判定を行なっていたが、この判定は、必ずしも線分という単位に限られない。
上述した説明では、検証を行なうか否かを示すフラグ(モデルデータ検証フラグ)の設定により、線分の3次元モデルの検証を明示的に行なっていた。しかし、検証を明示的に行なうのではなく、位置姿勢算出を行ないつつモデル検証を常に行なうようにしてもよい。
上述した説明では、画像上に投影された線分を等分割し、分割点を通り且つ投影線分に垂直な探索ライン上において、対応するエッジを検出する場合を例に挙げて説明した。しかし、エッジの検出方法は、これに限られず、画像上に投影された線分を基準にして対応するエッジを検出する方法であればよい。
Claims (13)
- 撮像装置により撮像される物体に対する該撮像装置の位置及び姿勢の情報を算出する情報処理装置であって、
前記物体の3次元モデルデータを保持する保持手段と、
前記撮像装置により撮像された前記物体の画像を複数取得する取得手段と、
前記3次元モデルデータの幾何特徴を前記複数の画像それぞれに投影し、該投影された幾何特徴に対応する幾何特徴を前記複数の画像それぞれから検出する検出手段と、
前記複数の画像それぞれで検出された、前記3次元モデルデータに含まれる幾何特徴に対応する幾何特徴の検出回数に基づいて、前記3次元モデルデータの幾何特徴を前記撮像装置の位置姿勢算出処理に利用するかを判定する判定手段と、
前記判定手段により位置姿勢算出処理に利用すると判定された前記3次元モデルデータの幾何特徴に基づいて、前記3次元モデルデータを更新する更新手段と
を具備することを特徴とする情報処理装置。 - 前記更新手段は、前記判定手段により位置姿勢算出処理に利用すると判定された前記3次元モデルデータの幾何特徴に、第1の情報を設定し、前記判定手段により、位置姿勢算出処理に利用すると判定されなかった前記3次元モデルデータの幾何特徴に、第2の情報を設定する
ことを特徴とする請求項1に記載の情報処理装置。 - 前記第1の情報は、位置姿勢算出処理に利用するフラグであり、前記第2の情報は、位置姿勢算出処理に利用しないというフラグである
ことを特徴とする請求項2に記載の情報処理装置。 - 前記判定手段は、
前記検出回数が所定の閾値よりも小さい場合に、前記3次元モデルデータに含まれる該当する幾何特徴については、前記位置姿勢算出処理に利用しないと判定する
ことを特徴とする請求項3に記載の情報処理装置。 - 前記判定手段は、
前記検出手段により検出された前記幾何特徴と、前記検出された幾何特徴に対応する前記3次元モデルデータに含まれる線分との幾何特徴のずれを示す誤差の大きさに基づいて前記判定を行なう
ことを特徴とする請求項1または2に記載の情報処理装置。 - 前記判定手段による判定の結果をユーザに提示する提示手段と、
前記提示手段により提示された判定結果をもとにユーザが承認するか否かを入力する入力手段と
を更に具備することを特徴とする請求項1または2に記載の情報処理装置。 - 前記幾何特徴は、線分または点特徴である
ことを特徴とする請求項1乃至6のいずれか1項に記載の情報処理装置。 - 前記幾何特徴は、線分であり、
前記検出手段は、
前記3次元モデルデータに含まれる線分各々に所定の間隔で複数の分割点を設け、該分割点に対応する対応点を探索することにより前記対応する線分を前記画像から検出し、
前記判定手段は、
前記検出手段により、前記分割点に対応する前記対応点の検出回数に基づいて、前記判定を行なう
ことを特徴とする請求項1または2に記載の情報処理装置。 - 前記更新手段によって更新された3次元モデルデータを用いて、前記撮像装置の位置姿勢を導出する導出手段を更に具備する
ことを特徴とする請求項1乃至8のいずれか1項に記載の情報処理装置。 - 撮像装置と、前記撮像装置の位置姿勢を導出する情報処理装置と、を含むシステムであって、
前記撮像装置は、
物体を撮像する撮像手段と、
前記物体を撮像した画像を送信する送信手段と、
を有し、
前記情報処理装置は、
前記物体の3次元モデルデータを保持する保持手段と、
前記送信手段を介して送信された前記物体の画像を複数取得する取得手段と、
前記複数の画像それぞれに投影し、該投影された幾何特徴に対応する幾何特徴を前記複数の画像それぞれから検出する検出手段と、
前記複数の画像それぞれで検出された、前記3次元モデルデータに含まれる幾何特徴に対応する幾何特徴の検出回数に基づいて、前記3次元モデルデータの幾何特徴を前記撮像装置の位置姿勢算出処理に利用するかを判定する判定手段と、
前記判定手段により位置姿勢算出処理に利用すると判定された前記3次元モデルデータの幾何特徴に基づいて、前記3次元モデルデータを更新する更新手段と
を具備することを特徴とするシステム。 - 前記撮像装置は、ヘッドマウントディスプレイに備えつけられている
ことを特徴とする請求項10に記載のシステム。 - 撮像装置により撮像される物体に対する該撮像装置の位置及び姿勢の情報を算出する情報処理装置の処理方法であって、
取得手段が、前記撮像装置により撮像された前記物体の画像を複数取得する取得工程と、
検出手段が、前記複数の画像それぞれに投影し、該投影された幾何特徴に対応する幾何特徴を前記複数の画像それぞれから検出する検出工程と、
判定手段が、前記複数の画像それぞれで検出された、前記3次元モデルデータに含まれる幾何特徴に対応する幾何特徴の検出回数に基づいて、前記3次元モデルデータの幾何特徴を前記撮像装置の位置姿勢算出処理に利用するかを判定する判定工程と、
更新手段が、前記判定工程により位置姿勢算出処理に利用すると判定された前記3次元モデルデータの幾何特徴に基づいて、前記3次元モデルデータを更新する更新工程と
を具備することを特徴とする情報処理装置の処理方法。 - 撮像装置により撮像される物体に対する該撮像装置の位置及び姿勢の情報を算出する情報処理装置に内蔵されたコンピュータを、
前記物体の3次元モデルデータを保持する保持手段と、
前記撮像装置により撮像された前記物体の画像を複数取得する取得手段と、
前記3次元モデルデータの幾何特徴を前記複数の画像それぞれに投影し、該投影された幾何特徴に対応する幾何特徴を前記複数の画像それぞれから検出する検出手段と、
前記複数の画像それぞれで検出された、前記3次元モデルデータに含まれる幾何特徴に対応する幾何特徴の検出回数に基づいて、前記3次元モデルデータの幾何特徴を前記撮像装置の位置姿勢算出処理に利用するかを判定する判定手段と、
前記判定手段により位置姿勢算出処理に利用すると判定された前記3次元モデルデータの幾何特徴に基づいて、前記3次元モデルデータを更新する更新手段と
して機能させるためのプログラム。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2013218672A JP5693691B2 (ja) | 2013-10-21 | 2013-10-21 | 情報処理装置、その処理方法及びプログラム |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2013218672A JP5693691B2 (ja) | 2013-10-21 | 2013-10-21 | 情報処理装置、その処理方法及びプログラム |
Related Parent Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2008308996A Division JP2010134649A (ja) | 2008-12-03 | 2008-12-03 | 情報処理装置、その処理方法及びプログラム |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2014026670A JP2014026670A (ja) | 2014-02-06 |
JP5693691B2 true JP5693691B2 (ja) | 2015-04-01 |
Family
ID=50200186
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2013218672A Expired - Fee Related JP5693691B2 (ja) | 2013-10-21 | 2013-10-21 | 情報処理装置、その処理方法及びプログラム |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP5693691B2 (ja) |
Families Citing this family (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP6421451B2 (ja) * | 2014-05-16 | 2018-11-14 | 株式会社タダノ | カメラ姿勢検出装置 |
JP6615486B2 (ja) * | 2015-04-30 | 2019-12-04 | 株式会社東芝 | カメラキャリブレーション装置、方法及びプログラム |
JP6765823B2 (ja) * | 2016-02-23 | 2020-10-07 | キヤノン株式会社 | 情報処理装置、情報処理方法、情報処理システム、及びプログラム |
JP2019185475A (ja) | 2018-04-12 | 2019-10-24 | 富士通株式会社 | 特定プログラム、特定方法及び情報処理装置 |
CN109345632B (zh) * | 2018-09-17 | 2023-04-07 | 深圳达闼科技控股有限公司 | 一种获取图像的方法、相关装置及可读存储介质 |
JP2020099009A (ja) * | 2018-12-18 | 2020-06-25 | 日本電信電話株式会社 | 画像補正装置、画像補正方法、及びプログラム |
Family Cites Families (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5850469A (en) * | 1996-07-09 | 1998-12-15 | General Electric Company | Real time tracking of camera pose |
JP3668769B2 (ja) * | 2000-06-26 | 2005-07-06 | 独立行政法人産業技術総合研究所 | 対象物体の位置・姿勢算出方法及び観測カメラの位置・姿勢算出方法 |
JP2005069757A (ja) * | 2003-08-21 | 2005-03-17 | National Institute Of Advanced Industrial & Technology | 中心窩広視野画像を利用したカメラ位置姿勢推定方法及びシステム |
JP4789745B2 (ja) * | 2006-08-11 | 2011-10-12 | キヤノン株式会社 | 画像処理装置および方法 |
JP4898464B2 (ja) * | 2007-01-17 | 2012-03-14 | キヤノン株式会社 | 情報処理装置および方法 |
JP5013961B2 (ja) * | 2007-05-21 | 2012-08-29 | キヤノン株式会社 | 位置姿勢計測装置及びその制御方法 |
-
2013
- 2013-10-21 JP JP2013218672A patent/JP5693691B2/ja not_active Expired - Fee Related
Also Published As
Publication number | Publication date |
---|---|
JP2014026670A (ja) | 2014-02-06 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2010134649A (ja) | 情報処理装置、その処理方法及びプログラム | |
JP5111210B2 (ja) | 画像処理装置、画像処理方法 | |
JP4898464B2 (ja) | 情報処理装置および方法 | |
JP5693691B2 (ja) | 情報処理装置、その処理方法及びプログラム | |
CN109040738B (zh) | 校准方法和非暂态计算机可读介质 | |
JP4976756B2 (ja) | 情報処理方法および装置 | |
JP6464934B2 (ja) | カメラ姿勢推定装置、カメラ姿勢推定方法およびカメラ姿勢推定プログラム | |
JP4789745B2 (ja) | 画像処理装置および方法 | |
JP5388932B2 (ja) | 情報処理装置およびその制御方法 | |
US7671875B2 (en) | Information processing method and apparatus | |
JP5058686B2 (ja) | 情報処理方法及び情報処理装置 | |
US7911503B2 (en) | Information processing apparatus and information processing method | |
JP6762913B2 (ja) | 情報処理装置、情報処理方法 | |
US20060050087A1 (en) | Image compositing method and apparatus | |
JP7379065B2 (ja) | 情報処理装置、情報処理方法、およびプログラム | |
JP2017129567A (ja) | 情報処理装置、情報処理方法、プログラム | |
KR102546346B1 (ko) | 전방위 카메라의 캘리브레이션을 위한 장치 및 방법 | |
JP2017187861A (ja) | 情報処理装置およびその制御方法 | |
JP2019114103A (ja) | 物体認識処理装置、物体認識処理方法及びプログラム | |
JP5726024B2 (ja) | 情報処理方法および装置 | |
JP6109213B2 (ja) | 情報処理装置および方法、プログラム | |
JP7029501B2 (ja) | 情報処理装置、情報処理方法 | |
JP7640427B2 (ja) | 注視位置分析システム及び注視位置分析方法 | |
Gava et al. | A Unifying Structure from Motion Framework for Central Projection Cameras | |
WO2017125983A1 (en) | Information processing apparatus, information processing method, and program for estimating position and orientation of a camera |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20131120 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20131120 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20140930 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20141010 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20141209 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20150105 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20150203 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 5693691 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |
|
LAPS | Cancellation because of no payment of annual fees |