[go: up one dir, main page]

JP2003281504A - 撮像部位置姿勢推定装置及びその制御方法並びに複合現実感提示システム - Google Patents

撮像部位置姿勢推定装置及びその制御方法並びに複合現実感提示システム

Info

Publication number
JP2003281504A
JP2003281504A JP2002081251A JP2002081251A JP2003281504A JP 2003281504 A JP2003281504 A JP 2003281504A JP 2002081251 A JP2002081251 A JP 2002081251A JP 2002081251 A JP2002081251 A JP 2002081251A JP 2003281504 A JP2003281504 A JP 2003281504A
Authority
JP
Japan
Prior art keywords
estimation
orientation
image
unit
estimating
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2002081251A
Other languages
English (en)
Inventor
Kazuki Takemoto
和樹 武本
Shinji Uchiyama
晋二 内山
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2002081251A priority Critical patent/JP2003281504A/ja
Publication of JP2003281504A publication Critical patent/JP2003281504A/ja
Pending legal-status Critical Current

Links

Landscapes

  • Length Measuring Devices By Optical Means (AREA)
  • Processing Or Creating Images (AREA)
  • Image Processing (AREA)
  • Studio Circuits (AREA)
  • Image Analysis (AREA)

Abstract

(57)【要約】 【課題】 複数の位置姿勢推定方法を動的に切り替え可
能な撮像部位置姿勢推定装置及びその制御方法を提供す
ること。 【解決手段】 3次元空間内に位置する撮像手段の位置
姿勢を推定し、位置姿勢情報として出力する撮像部位置
姿勢推定装置であって、撮像手段の位置姿勢を互いに異
なる方法で推定する、2つ以上の推定手段と、推定手段
を動的に選択する選択手段とを備え、選択手段で選択さ
れた推定手段による推定結果を前記位置姿勢情報として
出力する。

Description

【発明の詳細な説明】
【0001】
【発明の属する技術分野】本発明は、例えばHMDに取
り付けられ、3次元空間中を移動する撮像装置の位置姿
勢を推定する撮像部位置姿勢推定装置及びその制御方法
に関する。
【0002】
【従来の技術】現実空間を撮像する撮像部(ビデオカメ
ラ等)の外部パラメータ(位置姿勢)を計測、決定する
方法において、
【0003】(1)画像情報のみによる推定方法 (例えば、加藤,Mark,浅野,橘:「マーカ追跡に
基づく拡張現実感システムとそのキャリブレーショ
ン」,日本バーチャルリアリティ学会論文集 Vol.4No.
4, pp.607-616,1999に記載。以下第1文献と呼ぶ)、 (2)6自由度位置姿勢センサと画像とのハイブリッド
な推定方法
【0004】(例えば特開平11−136706号公
報、特開2000−347128号公報に記載) (3)画像と加速度センサのハイブリッドな推定方法 (例えば、横小路,菅原,吉川:「画像と加速度計を用
いたHMD上での映像の正確な重ね合わせ」, 日本バ
ーチャルリアリティ学会論文集 Vol.4 No.4, pp.589-5
98,1999) (4)ジャイロセンサと画像とのハイブリッドな位置合
わせなどの推定方法 (例えば、藤井,神原,岩佐,竹村,横矢:「拡張現実
のためのジャイロセンサを併用したステレオカメラによ
る位置合わせ」, 信学技報 PRMU99-192, January 20
00、以下第2文献と呼ぶ)等が知られている。また、画
像による位置合わせや、6自由度センサと画像のハイブ
リッドな方法では、さらに手法の異なる様々な方法があ
る。
【0005】
【発明が解決しようとする課題】しかし、上に挙げた従
来の方法は、それぞれ得意とする環境や場面が異なり、
ある特定の環境内においても、場面によっては相補的な
関係にある場合がありえる。しかし、それぞれの方法は
独立した処理を前提としており、場面に応じて様々な手
法を動的に切り替えて用いることは想定されていなかっ
た。具体的な例を挙げれば、(2)の、6自由度センサ
の1種である磁気センサと画像情報とのハイブリッドな
推定方法を使用する場合に、計測対象である撮像部が磁
気センサの計測範囲外に出た場合には、画像情報のみに
よる推定方法に切り替えるような処理ができない、とい
う状況が挙げられる。
【0006】本発明は、このように、場面に応じて様々
な推定方法を動的に切り替えることができないという従
来技術の問題点に鑑みてなされたものであり、位置姿勢
の計測対象である撮像部が存在する状況に応じて、複数
の位置姿勢推定方法を動的に切り替え可能な撮像部位置
姿勢推定装置及びその制御方法を提供することを目的と
する。本発明を用いれば、その場その場で望ましい推定
方法をユーザが能動的に選択する、または装置が状況に
応じて自動的に選択することが可能になり、従来よりも
広範囲な空間において撮像部の位置姿勢を推定すること
が可能である。本発明において選択対象となる方法は、
カメラの位置姿勢を推定する方法であれば、如何なる方
法であっても良い。
【0007】
【課題を解決するための手段】すなわち、本発明の要旨
は、3次元空間内に位置する撮像手段の位置姿勢を推定
し、位置姿勢情報として出力する撮像部位置姿勢推定装
置であって、撮像手段の位置姿勢を互いに異なる方法で
推定する、2つ以上の推定手段と、推定手段を動的に選
択する選択手段とを備え、選択手段で選択された推定手
段による推定結果を位置姿勢情報として出力することを
特徴とする撮像部位置姿勢推定装置に存する。
【0008】また、本発明の別の要旨は、請求項1乃至
請求項9のいずれか1項に記載の撮像部位置姿勢推定装
置と、撮像部位置姿勢推定装置から得られる位置姿勢情
報を用いて仮想空間画像を生成し、撮像部が撮像した画
像と合成して複合現実感画像を生成する複合現実感画像
生成手段と、複合現実感画像を撮像部を装着するユーザ
に提示する提示手段を有することを特徴とする複合現実
感提示システムに存する。
【0009】また、本発明の別の要旨は、3次元空間内
に位置する撮像手段の位置姿勢を、互いに異なる方法で
推定する2つ以上の推定手段を選択的に用いて推定し、
位置姿勢情報として出力する撮像部位置姿勢推定装置の
制御方法であって、推定手段を動的に選択する選択ステ
ップと、選択ステップで選択された推定手段による推定
結果を位置姿勢情報として出力する出力ステップとを有
することを特徴とする撮像部位置姿勢推定装置の制御方
法に存する。
【0010】また、本発明の別の要旨は、本発明の撮像
部位置姿勢推定装置の制御方法をコンピュータ装置に実
行させることを特徴とするコンピュータプログラムに存
する。
【0011】また、本発明の別の要旨は、本発明のコン
ピュータプログラムを格納したことを特徴とするコンピ
ュータ装置読みとり可能な記憶媒体に存する。
【0012】
【発明の実施の形態】<第1の実施形態>以下、添付図
面を参照して、本発明をその好適な実施形態に基づき詳
細に説明する。以下の説明においては、ビデオシースル
ー(Video See-Through)型のヘッドマウントディスプレ
イ(HMD)を用いた複合現実感提示システムに、本発
明の実施形態に係る撮像部位置姿勢推定装置を適用した
場合について説明する。
【0013】本発明の撮像部位置姿勢推定装置により、
ビデオシースルー型のHMDに取り付けた撮像部(以
降、特に断らない限り「撮像部」という言葉は左右一対
のカメラをまとめて表す)の位置姿勢を推定することに
より、ユーザが複合現実感(Mixed Reality:MR)空間をよ
り広範囲な空間において体験できる。
【0014】複合現実感提示システムとは、現実空間の
画像とコンピュータグラフィックス等の非現実空間(仮
想空間)画像を合成した複合現実空間(MR空間)を、
ユーザ(観察者)に提示するシステムである。なお、M
R技術についての情報は、例えばhttp://www.mr-syste
m.co.jp/whatsmr/index_j.html/から得ることができ
る。
【0015】MR空間を表現するためには、現実空間を
撮像する撮像部の現実空間上での位置姿勢を推定するこ
とが不可欠である。これは、仮想物体(仮想空間画像)
を現実空間上の位置に合わせて描画するには、撮像部の
現実空間上での位置姿勢から見た仮想物体の画像を生成
しなければならないからである。仮想物体は世界座標系
上で定義されているために、ビューイング変換行列と呼
ばれる変換行列により、世界座標系から撮像部を中心と
する座標系であるカメラ座標系に変換する必要がある。
カメラ座標系に変換された仮想物体を描画することによ
って現実空間の位置と合った画像を生成できる。つま
り、撮像部の位置姿勢を表すビューイング変換行列を推
定できれば、この撮像部によって撮像した現実空間の画
像と、推定したビューイング変換行列を用いて生成した
仮想空間画像とを合成することにより、適切なMR空間
を表現する複合現実感映像(画像)を生成することがで
きる。
【0016】本実施形態に係る撮像部位置姿勢推定装置
では、従来の技術で挙げた第1文献(画像情報のみから
推定する方法)、第2文献(画像とジャイロセンサを利
用して推定する方法)、特開平11−136706号公
報(画像と6自由度センサを利用して推定する方法)に
て述べられている具体的な推定方法を、撮像部の存在す
る状況に応じて切り替えて用いることにより、これら推
定方法を単独で利用するよりも広範囲な領域において適
切なMR空間画像を生成可能とした例を説明する。な
お、上で述べたように、本発明に係る撮像部位置姿勢推
定装置は、任意数かつ任意の推定方法を選択的に切り替
えて使用することが可能であり、以下に説明する実施形
態はその一例に過ぎない。
【0017】まず、本実施形態に係る撮像部位置姿勢推
定装置が用いる3つの撮像部の位置姿勢推定方法につい
て順に説明し、その後、切り替えに係る構成及び処理に
ついて説明する。なお、以下に説明する推定方法の詳細
については、それぞれ、第1文献、第2文献、特開平1
1−136706公報を参照されたい。
【0018】<方法1:6自由度位置姿勢センサと画像
とのハイブリッドな推定方法>はじめに、特開平11−
136706号公報に記載される、6自由度位置姿勢セ
ンサと画像情報とを用いてハイブリッドに撮像部の位置
姿勢を推定する方法について、図4、図7を用いて説明
する。
【0019】ここで、6自由度位置姿勢センサとは、Po
lhemus社の3SPCACE FASTRAKやAssension Technology社
のFlock of Birdsなどの磁気センサ、または、Northern
Digital社のOPTOTRAKなどの光学式センサなど、計測対
象の位置と姿勢を計測する機器を指す。この6自由度位
置姿勢センサは、HMDに固定されている。また撮像部
もHMDに固定して取り付けられていることから、6自
由度センサの計測値から撮像部の位置姿勢が計測でき
る。この撮像部の位置姿勢からビューイング変換行列を
生成して現実空間画像と仮想空間画像を合成した場合、
センサの誤差が原因となって画像上での位置ずれが生じ
る。例えば、磁気センサを用いた6自由度位置姿勢セン
サの測定値は周囲の磁場に影響されるので、計測部近辺
に金属物質があると誤差が大きくなり、結果として画像
の位置ずれ量も増える。
【0020】このような状況に鑑みて特開平11−13
6706号公報では、画像情報を用いて、6自由度セン
サ誤差を補正する方法を述べている。この方法では、現
実空間にマーカと呼ばれる、画像処理によって検出しや
すい特定の色や形状を有する物体、例えばシールを、現
実空間中の物体に貼り付けてランドマーク(絶対位置基
準)として利用する。また、マーカとしては特別に配置
したもの以外にも、現実空間中の特徴的な物体や点を利
用することも可能である。
【0021】図4は画像と6自由度センサを用いた撮像
部位置姿勢推定部170Aの構成例を示すブロック図で
ある。位置姿勢計測部410は、ユーザ頭部に装着され
たHMD100に組み込まれた左右一対のカメラからな
る撮像部110の位置姿勢を計測する6自由度センサの
計測値の受信処理を行う。一方で、マーカ検出部420
では、撮像画像の取得部150から撮像部110で撮像
した画像を取得し、その画像からマーカ220Aを検出
して、観測座標での2次元位置(x0,y0)を得る。
マーカ220Aの検出方法は特に限らないが、例えば以
下のような例が挙げられる。現実空間に赤色マーカ22
0Aを配置し、それを撮像部110によって撮像した画
像から検出する場合は、画像中の注目画素値(R,G,
B)の特徴量lSをlS=R/((G+B)/2)
(式1)として求め、特徴量Isがあらかじめ指定した
閾値を超えた場合は、注目画素がマーカ領域内であると
判定する。これを、画像中の全画素に対して適応し、検
出されたマーカ領域は、個々にラベル付けされる。ラベ
ル付けされた領域の重心位置をマーカ220Aの2次元
位置とし、観測座標のマーカ位置(x0,y0)が算出
される。このようにして得られたマーカ220Aの2次
元位置と撮像部110の位置姿勢計測値を位置姿勢推定
部430に入力する。
【0022】図7は位置姿勢推定部430で行われる処
理の概要を示す図である。まず、位置姿勢計測部410
より入力された計測値から、カメラ(撮像部110)の
ビューイング変換行列MCを生成する(ステップS70
0)。さらに、ビューイング変換座標MCと既知である
世界座標系上での各マーカの3次元位置と、撮像部11
0の理想的透視変換行列から、各マーカの観測座標予測
値を算出する(ステップS710)。
【0023】そして、ステップS720において、マー
カ検出部420から渡されたマーカ位置情報(2次元観
測座標)に基づいて、現在観測しているマーカ、すなわ
ち補正の基準となるマーカを判別する。ステップS73
0では、ステップS710で演算されたマーカの観測座
標予測値とマーカ検出部420が検出したマーカの2次
元観測座標値との差異に基づいて、位置姿勢計測部41
0によって得られた撮像部110の位置姿勢を表すビュ
ーイング変換行列MCを補正するための補正行列ΔMC
求める。さらに、ステップS740において、ステップ
S730で求めた補正行列ΔMCとステップS700で
求めた計測値からのカメラのビューイング変換行列MC
を積算することにより、補正後の視点のビューイング変
換行列MC1を得ることができる。すなわち、 MC1
ΔMC・MC である。
【0024】最後に、世界座標系で定義された仮想物体
の3次元データを、補正されたビューイング変換行列M
C1を用いてカメラ座標系に変換することで、HMDを
装着したユーザの視点位置から見た仮想物体の画像を生
成できる。そして、撮像部110から入力される現実空
間の映像と仮想物体画像とを合成し、複合現実映像(以
降、MR画像と呼ぶ)を生成する。なお、仮想物体に関
するデータは不図示の外部メモリに格納されているもの
とする。生成されたMR画像は、HMD内の表示部(図
示せず)に出力される。このようして得られたMR画像
をHMD100を介してユーザに提示することにより、
ユーザはMR空間を認識することができる。
【0025】この手法においては、6自由度センサの計
測範囲内では高い精度にて現実空間と仮想空間の位置合
わせが行われるが、計測対象であるHMD100に装着
された撮像部110がセンサの計測範囲を超えた場合
(例えば、センサが撮像部近傍に取り付けられた発信機
と離れた位置にある受信機とから構成され、その距離が
所定の範囲を超えた場合など)は、センサの誤差が許容
値を越えるため、マーカの判別処理に問題が生じ、正確
な位置合わせはできない。このようなことから、特開平
11−136706号公報では、予め定めた測定範囲内
でセンサを使用することを前提としている。
【0026】なお、撮像部位置姿勢推定部170Aは例
えば汎用のコンピュータ装置から構成され、各部はソフ
トウェアを実行するCPU又は専用のハードウェアによ
って実現される。
【0027】<方法2:画像情報のみによる推定方法>
次に、第1文献に記載されるような、撮影画像中の特徴
的な画像から撮像部の位置姿勢を求める方法について、
図5及び図8を用いて説明する。図5は、画像を用いた
撮像部位置姿勢推定部170Bの構成例を示すブロック
図である。基本的には、図4の構成から6自由度センサ
120Aと位置姿勢計測部410を除いた構成を有す
る。また、使用するマーカ220Bとして、第1文献で
は白色のカード上に書かれた一辺80mmの黒色正方形
で、その内部に各マーカを識別するための40mm四方
のパターンが与えられたものを例示している。各マーカ
220B内部のパターンにより、複数のマーカの取り扱
いを可能にしている。
【0028】撮像画像の取得部150から、マーカ22
0Bを含む撮像画像を受け、画像処理用マーカ検出部5
10にてマーカ220Bの検出を行い、マーカ220B
の各頂点の観測座標系位置、テンプレートマッチング用
の画像を算出する。そして、それらの出力を位置姿勢推
定部520に入力し、撮像部110の位置姿勢を推定す
る。
【0029】撮像部110の位置姿勢を推定する処理手
順を以下で述べる。まず、マーカ220Bを撮像部11
0により撮像することで、まずマーカ220Bの3次元
位置姿勢が推定され、マーカ座標系の位置が求まり、マ
ーカ220Bからの撮像部110の推定位置姿勢が算出
される。ここで、マーカ座標系と世界座標系の位置関係
が既知であるとすると、世界座標系上での撮像部110
の位置姿勢を推定することが可能となる。つまりは、マ
ーカ220Bの3次元位置姿勢が求められれば、撮像部
110の位置姿勢を推定することが可能である。
【0030】前述のマーカ220Bの3次元位置姿勢推
定は、マーカ座標系からカメラ座標系への変換行列Tcm
を推定する問題である。Tcmは回転移動成分R3x3と平
行移動成分T3x1から構成される。よって、回転移動成
分R3x3と平行移動成分T3x1を求めることが必要とな
る。
【0031】図8は図5の画像処理用マーカ検出部51
0と位置姿勢推定部520の処理を説明するフローチャ
ートである。まず、画像処理用マーカ検出部510で
は、マーカ220Bが撮像された画像を2値化処理し、
マーカ220Bが撮像されている領域(外接長方形)の
抽出を行う(ステップS800)。また、ステップS8
00において、抽出領域内のテンプレートマッチング用
の撮像パターン画像を保存しておく。
【0032】次に、抽出された領域情報からマーカ22
0Bの各辺に対応する輪郭線データに最小2乗法で直線
当てはめを行い、各辺の線分に当てはまる直線の式を算
出する(ステップS810)。ステップS820におい
て、ステップS810にて算出した4つの直線の各交点
を求め、マーカ220Bの頂点の画像座標系上での2次
元座標値とする。画像処理用マーカ検出部510は、以
上の処理で得られたマーカ220Bの頂点座標値とテン
プレートマッチング用撮像パターン画像を位置姿勢推定
部520へ受け渡す。
【0033】位置姿勢推定部520は、ステップS83
0において、画像処理用マーカ検出部510がステップ
S800にて求めたテンプレートマッチング用の撮像パ
ターン画像と、あらかじめ用意してあるテンプレートマ
ッチング用の画像を比較し、マーカ識別と、画像上にお
けるマーカ220Bの向きの判別を行う。
【0034】ステップS840において、判別したマー
カ220Bの回転移動成分R3x3を求める。まず、マー
カ220Bの4頂点(画像上の2次元位置)から、向か
い合う2辺の2直線の方程式が得られる、これらの2つ
の直線とカメラの理想的透視変換行列とを用いて、カメ
ラ座標系上(3次元空間)での対応する2平面の式が得
られる。この2平面はカメラ座標系上のマーカ220B
の対応する辺(3次元空間中の線分)をそれぞれの平面
内に一つずつ含む。マーカ220Bの向かい合う2辺は
平行なのでその方向ベクトルは一致し、前述の2平面の
面内方向となる。そして、もう一組の平行2辺において
も同様の処理を行うことで、マーカ220Bの隣り合う
2辺の方向ベクトルを求められる。この一対の3次元ベ
クトルと、テンプレートマッチングの結果から、回転移
動成分R3x3を求める(詳細については、第1文献の
2.3.1節を参照)。
【0035】さらにステップS850において、ステッ
プS840の回転移動成分R3x3と、マーカ4頂点のマ
ーカ座標系での3次元座標値と、カメラの理想的透視変
換行列後の2次元座標値を与えると、平行移動成分T
3x1が得られる(詳細については、第1文献の2.3.
2節を参照)。
【0036】以上の結果から、変換行列Tcmが求めら
れ、既知であるマーカ座標系と世界座標系との位置関係
から、世界座標系からカメラ座標系への変換行列、つま
りビューイング変換行列MC2を得る(ステップS86
0)。
【0037】このようにして得られたビューイング変換
行列MC2から撮像部110の位置姿勢を推定した後
は、上述の6自由度センサを用いる場合と同様に仮想物
体の映像を生成し、撮像部110から入力される現実空
間の映像と合成し、MR画像を生成する。
【0038】この手法により、画像情報のみから撮像部
の位置姿勢110を求められる。しかし、マーカ220
Bを常に撮像部110において撮像し、さらにマーカ2
20Bの内部の識別用パターンが認識可能な程度に近い
距離から撮像していなければ、撮像部110の位置姿勢
の推定は不可能である。これは、マーカ220Bに完全
に依存した方法であり、見回す範囲内にマーカ220B
を検出できない状態、または、マーカ220Bから離れ
てパターンが認識不可能な状態では、この推定方法が使
用できないことを意味する。
【0039】<方法3:ジャイロセンサと画像とのハイ
ブリッドな推定方法>次にジャイロセンサと画像情報を
用いてハイブリッドに撮像部の位置姿勢を推定する方法
について、図6、図9を用いて説明する。
【0040】図6は、ジャイロセンサと画像情報を用い
た撮像部位置姿勢推定部170Cの構成例を示すブロッ
ク図である。撮像部位置姿勢推定部170Cは、HMD
に取り付けられ、その姿勢を計測するジャイロセンサ1
20Cの計測値を受ける姿勢計測部620、撮像部11
0(ステレオカメラ)からの画像を取得するとともに、
撮影画像からマーカ220Aの3次元位置を検出する機
能を持つ撮像画像取得部150、撮像画像取得部150
及び姿勢計測部620からの情報に基づき撮像部110
の位置姿勢を推定する位置姿勢推定部610から構成さ
れる。
【0041】まず、撮像部110の位置姿勢を推定する
処理を行う前に、基準マーカと呼ばれるマーカ220A
を撮像して、第1フレームの初期カメラ位置姿勢を求め
る必要がある。なお、フレームとは撮像された単位画像
のことを指す。この基準マーカは世界座標系上での3次
元位置が既知であり、かつ同一直線上にない3つのマー
カ220Aである。さらに、初期カメラ位置姿勢を求め
るときに、この3つのマーカ220Aが左右のカメラに
撮像されていなければならない。
【0042】まず、ステレオカメラである撮像部110
で3つの基準マーカ220Aを同時に撮像し、エピポー
ラ拘束により左右画像中のマーカの対応付けを行う。こ
の対応付けを行ったマーカと既知であるマーカの3次元
位置を利用して、撮像部110の初期位置姿勢を算出す
る(詳細については、神原,岩佐,竹村,横矢: 「マ
ーカの切替え追跡による広範囲位置合わせ可能なビデオ
シースルー型拡張現実感」,信学会技報, PRMU99-19
9,pp. 51-56, Jan, 2000.を参照)。このようにして得
られた初期カメラ位置姿勢を基に、マーカ追跡を行って
第2フレーム以降のカメラ位置姿勢を求める。また、マ
ーカ追跡を行っている間は、常に1つ以上のマーカが撮
像され、かつマーカとして認識されていなければならな
い。
【0043】図9はマーカ追跡処理中の位置姿勢推定部
610の処理を説明するフローチャートである。まず、
撮像部110の回転成分の推定については、姿勢計測部
620からの計測値を受ける(ステップS900)。次
に、ステップS910で、撮像部110の平行移動成分
を推定する。この推定は、ステップS940により格納
した前フレームのマーカ3次元位置と、現フレームから
得られるマーカ3次元位置と、ステップS900で得ら
れた回転移動成分とから、行うことができる(第2文献
の2.2節を参照)。
【0044】ステップS930では、ステップS900
で得られた回転成分の推定値とステップS910で得ら
れた平行移動成分の推定値を基に、現在のフレームにお
ける画像上のマーカ位置を予測し、予測した範囲におい
てマーカ検出処理を行う。このマーカ検出処理は、図4
のマーカ検出部420の処理と同様の処理である。
【0045】ステップS930において、ステップS9
00で得られた回転成分の推定値とステップS910で
得られた平行移動成分の推定値を基に、ビューイング変
換行列MC3を算出する。さらに、次フレームのマーカ
検出のためのマーカ3次元位置を現在の撮像部110の
位置姿勢を基にステレオカメラによって求め、ステップ
S940において保存しておく。
【0046】このようにして得られたビューイング変換
行列MC3から、撮像部110の位置姿勢を推定し、<
方法1>、<方法2>と同様に仮想物体の映像を生成す
る。さらに、撮像部110から入力される現実空間の映
像と仮想物体の映像とを合成し、MR画像を生成してH
MD100の表示部を介してユーザに提示する。
【0047】この手法では、HMDに取り付けられたジ
ャイロセンサを利用することにより、広範囲に移動し、
見回すことが可能である。しかし、マーカが撮像されて
いない状態で一定の距離を移動すると平行移動成分が推
定できなくなり、撮像部110の位置姿勢推定処理は継
続できなくなる。
【0048】以上、本実施形態に係る撮像部位置姿勢推
定装置で切り替えて使用する3つの撮像部位置姿勢推定
方法の概要と性質について述べた。以下では、これらの
方法を切り替えて使用するための具体的な構成及び動作
について説明する。
【0049】<複合現実感提示システム>図1は、本発
明の実施形態に係る撮像部位置姿勢推定装置を適用した
複合現実感提示システムの構成例を示すブロック図であ
る。
【0050】複合現実感提示システムは、ユーザにMR
空間画像を提示するHMD100と、HMD100に装
着された撮像部110から得られる現実空間の画像を受
ける撮像画像の取得部150と、撮影画像の取得部15
0から得られる撮像部110の画像をそのまま表示する
現実空間の描画部180と、本発明の実施形態に係る撮
像部位置姿勢推定装置200と、撮像部位置姿勢推定装
置200から出力される撮像部110の位置姿勢情報を
用いて仮想空間画像を描画し、現実空間の描画部180
から得られる現実空間映像と合成する仮想空間の融合描
画部190とから構成されている。
【0051】本実施形態の複合現実感提示システムにお
いて用いるHMD100はビデオシースルーHMDであ
り、現実空間を撮像するステレオカメラである撮像部1
10と、撮像部110の位置姿勢推定に利用する6自由
度位置姿勢センサ120と、同じく撮像部110の位置
姿勢推定に利用するジャイロセンサ125と、現実空間
と仮想空間の融合画像(MR画像)を提示するための、
例えばLCDからなる表示部130とから構成されてい
る。さらに、撮像部110、6自由度センサ120A、
ジャイロセンサ120C、表示部130はHMD100
に固定されている。なお、HMD100に設けられるセ
ンサは、撮像部位置姿勢推定装置200が切り替えて使
用する推定方法に応じて適宜加除されることに留意され
たい。
【0052】本実施形態において、撮像部位置姿勢推定
装置200は、<方法1>で説明した位置姿勢推定部1
70A(図4)、<方法2>で説明した位置姿勢推定部
170B(図5)及び、<方法3>で説明した位置姿勢
推定部170C(図6)と同等の位置姿勢推定部170
A〜170Cと、これら位置姿勢推定部170A〜17
0Cを動的に切り替える推定方法の選択部160A、1
60Bと、使用する推定方法(すなわち、位置姿勢推定
部)を指定する推定方法指定部195から構成される。
なお、本実施形態において使用する推定方法はユーザが
決定し、推定方法指定部195に指示することによって
使用する位置姿勢推定部が切り替えられる。また、推定
方法指定部195は例えばワイヤード又はワイヤレスリ
モコンとしてユーザが手元で使用できるように構成する
ことが好ましい。
【0053】図2は、図1における複合現実感提示シス
テムの使用時の状態を説明する図である。本実施形態で
は、6自由度位置姿勢センサ120Aとして、Polhemus
社の3SPCACE FASTRAK(以下、FASTRAK)、ジャイロセンサ
120Cとして、InterSense社のIS-300(以下、IS-300)
を用いている。また、FASTRAKセンサは、トランスミッ
タから発生する磁界をレシーバが受け、レシーバが接続
されているFASTRAKセンサのコントローラ(不図示)に
よってレシーバの位置と姿勢を出力する構成を有するた
め、FASTRAKセンサのトランスミッタ210をテーブル
240Aに、FASTRAKセンサのレシーバ(ステーショ
ン)120AをHMD100に配置した。また、図1に
示すように、6自由度センサ120A(正確にはFASTRE
AKのコントローラ)の出力は位置姿勢推定部170A内
部の位置姿勢計測部410へ入力される。また、送受信
機の組み合わせからなることから、FASTREAKセンサの測
定範囲は有限であり、図2の215にその測定範囲を示
す。
【0054】もちろん、6自由度センサやジャイロセン
サなどは前述した製品に限るものではなく、それぞれ<
方法1>、<方法3>の実施が可能な任意のセンサを利
用可能であり、使用するセンサに応じて具体的な実装方
法は変化する。
【0055】図2の220A、220Bは現実空間に配
置されたマーカを表している。本実施形態では、220
Aはテーブル240A上に配置され、220Bはテーブ
ル240Bに配置されている。マーカ220Aは位置姿
勢推定部170A及び170Cを利用するときに使用す
るマーカであり、現実空間を撮像した撮像画像から色で
マーカ220Aを抽出できるよう、テーブル240Aと
は異なる色、本実施形態では赤色を有するシール状のも
のを利用している。
【0056】マーカ220Bは位置姿勢推定部170B
を利用するときに使用するマーカを表し、<方法2>で
説明したマーカ220Bと同様の、内部に白地に黒い線
分などで表された識別パターンを有する黒の正方形マー
カである。また、個々のマーカ220A、220Bの世
界座標系230上での位置はあらかじめ計測しておき、
それぞれの位置姿勢推定処理を行うときの入力データと
する。なお、本実施形態において、マーカ種は220
A、220Bのようなマーカに限るものではなく、<方
法1>、<方法2>、<方法3>においてマーカとして
取り扱え、撮像部110の位置姿勢推定処理が可能であ
れば任意のマーカが適応可能である。また、切り替えて
使用される位置姿勢推定処理の全てで共用可能なマーカ
を用いることも可能である。具体的には220Bの枠部
分の色を赤くしたマーカをマーカ220Aとして配置し
てもよい。
【0057】図2中のA、B、Cの場所にあるHMD1
00は同一のHMD100がA→B→Cの順番で移動し
た状態を表している。なお、HMD100はユーザ(不
図示)が装着しているものとする。図2中のHMD10
0は、図1で示したHMD100と同じ構成である。位
置Aは、6自由度センサ120Aの計測範囲215内に
ある場所を示し、位置Bは、6自由度センサ120Aの
計測範囲215内から出て、6自由度センサ120Aの
計測値に大幅な誤差が生じる場所を指している。さら
に、位置Cはテーブル240Bの台上を間近に見られる
場所を指している。
【0058】位置Aにユーザが装着したHMD100が
位置する場合には、FASTRAKセンサのトランスミッタ2
10から近く、計測範囲215の内部であるので、ユー
ザは位置姿勢推定部170Aを選択する。
【0059】次に、ユーザが装着するHMD100が位
置Aから位置Bに移動した場合は、FASTRAKセンサの計
測範囲215内から出てしまったので、ユーザに提示さ
れるMR画像は、FASTRAKセンサ誤差から現実空間と仮
想物体の位置が大幅にずれている画像となっている。そ
こでユーザは、例えば3つの位置姿勢推定部の各々を直
接指定するスイッチ又は、押下される毎に順次使用する
位置姿勢推定部を巡回的に切り替えるスイッチからなる
推定方法指定部195を用いて選択部160A,160
Bを切り替え、位置姿勢推定部170Bを利用して撮像
部110の位置姿勢を推定するように選択する。
【0060】この時点で、位置姿勢推定部は170Bに
切り替えられ、ジャイロセンサ120Cと画像情報から
撮像部110の位置姿勢を推定する。なお、位置姿勢推
定部170Bに切り替える時には、左右の撮像部110
L、110Rに同一直線上にない3つ以上のマーカ22
0Aが撮像されていなければならないが、位置Bでは、
テーブル240Aから離れた位置であるので、テーブル
240Aを注目していれば、マーカ220Aを3つ以上
撮像することは容易である。切り替え後の第1フレーム
で初期カメラ位置姿勢を求めた後は、マーカ追跡処理に
よりマーカ220Aは左右の撮像部110L、110R
が同一のマーカ220Aを1つ撮像していれば、撮像部
110の位置姿勢を推定できる。
【0061】次に、ユーザが位置Cに移った場合、テー
ブル240Bにはマーカ220Bのみしか設置されてお
らず、マーカ220Aは撮像されない状態になる。マー
カ220Aが撮像されていない場合、位置姿勢推定部1
70Cは撮像部110の推定に必要な平行移動成分が得
られず、MR画像において現実空間と仮想物体の位置に
ずれが生じる。ここで、ユーザはマーカ220Bに対応
した推定方法である位置姿勢推定部170Cを選択する
ことでこのずれを解消することができる。このとき、位
置姿勢推定部170Cはマーカ220Bの画像情報から
撮像部110の位置姿勢を推定している。
【0062】図3は、本実施形態における撮像部位置姿
勢推定装置200の動作を説明するフローチャートであ
る。まずステップS300において、撮像部110で撮
影した現実空間画像を、撮像画像の取得部150を介し
て取得する。
【0063】次にステップS310において、ユーザが
指定した推定方法指定部195の指示が位置姿勢推定部
170Aかどうかを判定する。推定方法指定部195が
170Aを指定していた場合は、ステップS330に移
る。もし、指定していなかった場合は、ステップS32
0に移る。
【0064】ステップS320では、ステップS310
と同様に、位置姿勢推定部170Bが指定されているか
どうかを判定する。選択されていた場合はステップS3
40へ、選択されていなかった場合は、ステップS35
0に移る。
【0065】ステップS330においては、<方法1>
で説明した、位置姿勢推定部170A(図4)を用いて
撮像部の位置姿勢推定処理を行う(処理のフローチャー
トは図7)。この処理では、撮像部110にて撮像され
たマーカ220Aの2次元位置と対応するマーカ220
Aの3次元位置とを利用して、6自由度センサ120A
であるFASTRAKセンサの計測値を補正し、撮像部110
の位置姿勢を推定する。なお、位置姿勢推定部170A
のマーカの検出部420においては、赤色マーカを検出
するための特徴量Isを算出する式として、上述の式1
を利用する。
【0066】ステップS360において、求めた撮像部
110の位置姿勢推定値(ビューイング変換行列
C1)を仮想空間の融合描画部190に出力する。ス
テップS340においては、<方法2>で説明した、位
置姿勢推定部170B(図5)を用いて撮像部の位置姿
勢推定処理を行う(処理のフローチャートは図8)。こ
の処理によって撮像された画像からマーカ220Bを抽
出し、撮像部110の位置姿勢である、ビューイング変
換行列MC2を求める。
【0067】ステップS350においては、<方法3>
で説明した、位置姿勢推定部170C(図6)を用いて
撮像部の位置姿勢推定処理を行う(処理のフローチャー
トは図9)。この処理では、IS-300センサを撮像部11
0の姿勢検出手段とマーカ検出時の予測手段として利用
し、撮像部110の回転移動成分と平行移動成分を求
め、最終的な撮像部110の位置姿勢であるビューイン
グ変換行列MC3を求める。
【0068】仮想空間の融合描画部190は、世界座標
系で定義されている仮想物体データを選択部160Bか
ら得られるビューイング変換行列(MC1、MC2、M
C3)を用いてカメラ座標系上の値に変換することによ
り、ユーザの視点位置から見た仮想物体の画像を描画
し、現実空間の画像と合成することでMR画像を生成す
る。生成されたMR画像は、HMD100の表示部13
0を介してユーザに提示される。
【0069】なお、撮像画像の取得部150、撮像画像
の描画部180、仮想空間の融合描画部190及び撮像
部位置姿勢同定装置200はいずれも、CPU、RA
M、ROM、外部記憶装置(HDD、CD−ROM
等)、ディスプレイ、キーボード(マウス等のポインテ
ィングデバイスをふくむ)等を有する汎用コンピュータ
装置を用いてそれぞれの機能を実現可能なソフトウェア
モジュールを実行することにより実現することが可能で
ある。もちろん、必要な処理速度を得るため、処理の一
部又は全部を専用のハードウェアによって実行すること
も可能である。
【0070】<第2の実施形態>上述の第1の実施形態
においては、各位置姿勢推定処理部170A〜170C
を、状況によってユーザが能動的に切り替える構成を説
明した。本実施形態においては、使用する位置姿勢推定
部をユーザが切り替えるのではなく、6自由度センサ1
20Aの位置情報、撮像画像取得部150の撮像画像内
に撮像されているマーカの情報などの情報を基に自動的
に切り替えることを特徴とする。
【0071】図11は、本実施形態に係る撮像部位置姿
勢同定装置201を用いた複合現実感提示システムの構
成例を示すブロック図である。推定方法の選択部160
Bにおいて、6自由度センサ120Aの位置情報、各位
置姿勢推定処理部170A〜170Cから得られるマー
カ情報などに基づき、現在の状況に適した推定方法を自
動的に選択し、選択した推定方法を推定方法指定部19
5に指示する。そして、推定方法指定部195が、この
指示に基づいて選択部160Aを切り替え、使用する位
置姿勢推定部を変更する。
【0072】図10は、本実施形態に係る選択部160
Bの動作例を説明するフローチャートである。ここで
は、まずHMD100が6自由度センサ120Aの測定
範囲215内にあるか判定し(ステップS101)、内
部に位置する場合は位置姿勢推定処理部170Aを選択
する(ステップS104)。一方、測定範囲215の外
と判定されると、選択部160Aを用いて位置姿勢推定
処理部170Bにも撮像画像を一時的に供給し、撮像さ
れた画像中に直線上にないマーカ220Aを3つ以上撮
影しているか否かを判定する(ステップS102)。条
件を満たす場合には位置姿勢推定処理部170Bを選択
する(ステップS105)。条件を満たさない場合には
ステップS103で、選択部160Aを用いて位置姿勢
推定処理部170Cにも撮像画像を一時的に供給し、撮
像された画像中にマーカ220Bが撮像されているか否
かを判定する(ステップS103)。条件を満たす場合
には位置姿勢推定処理部170Cを選択する(ステップ
S106)。条件を満たさない場合には最後に推定され
たビューイング変換行列を用いる(ステップS10
7)。現在使用している位置姿勢推定処理部の測定誤差
が所定範囲外になった場合には(ステップS108)再
度選択処理を行う。
【0073】このような自動選択処理を行うことによ
り、図2において位置Aの場所から位置Bの場所に移動
する場合、位置Aの場所では、6自由度センサ120A
の計測値は、計測範囲215よりも内側の位置を示して
いるので、位置姿勢推定部170Aを自動的に選択す
る。さらに、位置Bに移動する場合に、計測範囲215
の外に出るので、計測誤差が増加する。ここで、計測誤
差が既定の閾値を越えた場合に、選択処理をおこない、
左右の撮像部110が直線上にない3つのマーカ220
Aを同時に撮像されている場合は、位置姿勢推定部17
0Bを選択する。もし、上記の条件に適合するマーカ2
20Aを撮像できていない場合は撮像画像取得部150
の画像からマーカ220Bの検出処理を行い、検出でき
た場合は位置姿勢推定部170Cを選択する。さらに、
マーカ220Bが検出されない場合は、最後に推定でき
た撮像部110の位置姿勢を継続して利用する。
【0074】この自動切り替えを行う条件としては、計
測誤差が所定値を超えた場合に限るものではなく、ユー
ザに提示するMR画像における、現実空間と仮想物体の
位置のずれがなるべく最小になるように判定できるもの
であれば適応可能である。また、マーカ220A、22
0Bが撮像されているか否かについては、各位置姿勢推
定処理部170A〜170Cを用いずに選択部160B
が取得部150から画像を取得して判定することも可能
である。この場合、現在使用している位置姿勢推定処理
部170A〜170Cの測定誤差が所定値を超えなくと
も、マーカの検出状況に応じて切り替え処理を行っても
良い。
【0075】<第3の実施形態>上記実施形態において
は、推定方法指定部195によって選択部160Aを切
り替え、いずれか1つの位置姿勢推定処理部170A〜
170Cにのみ撮像画像取得部150からの撮像画像を
供給していた。本実施形態では、撮像画像取得部150
からの撮像画像を特定の位置姿勢推定処理部ではなく、
全ての位置姿勢推定処理部170A〜170Cに供給す
るとともに、同時に推定処理を行い、各位置姿勢推定処
理部170A〜170Cの推定処理結果である3つの撮
像部110の位置姿勢に基づき、1つの推定処理結果の
選出、または3つの推定処理結果からの合成を行い、最
適な撮像部110の位置姿勢を求めることを特徴とす
る。
【0076】図12は、本実施形態に係る撮像部位置姿
勢同定装置202を用いた複合現実感提示システムの構
成例を示すブロック図である。また、図13は図12に
おける複合現実感提示システムの使用時の状態を説明す
る図である。図13に示すように、本実施形態において
は常に3つの位置姿勢推定処理部170A〜170Cを
用いた推定処理を行うため、テーブル240A以外の
床、壁にも位置姿勢推定処理部170A、170Bが用
いるマーカ220Aが、またテーブル240Aに位置姿
勢推定処理部170C用のマーカ220Bが配置されて
いる。
【0077】全ての位置姿勢推定部170A、170
B、170Cに撮像画像取得部150からの撮像画像が
入力され、同時に推定処理を行う。全ての推定処理が完
了した時点で推定結果の合成部160Cにおいて処理結
果の比較が行われる。処理結果の比較は、それぞれの推
定処理結果に撮像部110の推定結果信頼度Rを設定
し、Rによる推定結果の重み付け平均を算出する。 MC”=R・MC1+R・MC2+R・MC3 (式2) 但し、R+R+R=1である。MC1、MC2、M
C3はそれぞれ、位置姿勢推定処理部170A〜170
Cが出力する推定処理結果である撮像部の位置姿勢を表
すビューイング変換行列である。
【0078】各位置姿勢推定処理部170A〜170C
に対する推定結果信頼度R、R、Rの設定方法の
例を以下に示す。位置姿勢推定部170Aにおけるセン
サ計測誤差に関する関数fからr1、撮像画像上におけ
るマーカ220Bの外接長方形が占める面積率に関する
関数gからr2(ただし、外接長方形の4頂点すべてが
撮像画面上に存在すること)、図9のステップS910
で求められる平行移動量に関する関数hからr3を求め
る。 errはセンサ計測誤差、tはマーカ検出時に現在の計
測誤差でマーカを検出できる範囲を示す閾値を表す。 jは撮像画像上におけるマーカ220Bの外接長方形が
占める面積率、kはマーカ220Bのパターンが識別可
能な最低の面積率とする。 r3=h(u) h(u)=1−u (0≦u≦1) uは平行移動量を表す。
【0079】さらに、r1、r2、r3の比率を求め、
、R、Rを設定する。また、各位置姿勢推定処
理部170A〜170Cに対する重み付けは前述の設定
方法に限るものではなく、各位置姿勢推定処理部170
A〜170Cで行われる推定処理の内容や、適用条件等
を考慮して任意に設定可能である。
【0080】
【他の実施形態】上述の第1の実施形態においては、1
つの位置姿勢推定処理部170A〜170Cを選択して
用いる場合のみ説明したが、推定処理選択手段195に
よって複数の位置姿勢推定処理部を選択し、第2の実施
形態及び第3の実施形態における選択処理の候補となる
位置姿勢推定処理部を指定するように構成することも可
能である。
【0081】上述の実施形態においては、3つの異なる
位置姿勢推定処理を切り替える場合のみを説明したが、
2つ又は4つ以上の処理を切り替えて使用することも可
能である。また、切り替えて使用する位置姿勢推定処理
方法についても、上述した手法以外の方法を用いること
も可能である。
【0082】上述の実施形態においては、1つの機器か
ら構成される撮像部位置姿勢同定装置についてのみ説明
したが、本発明の撮像部位置姿勢同定装置と同等の機能
を複数の機器から構成されるシステムによって実現して
も良い。
【0083】尚、前述した実施形態の機能を実現するソ
フトウェアのプログラム(実施形態で説明したフローチ
ャートに対応したプログラム)を、記録媒体から直接、
或いは有線/無線通信を用いて当該プログラムを実行可
能なコンピュータを有するシステム又は装置に供給し、
そのシステム或いは装置のコンピュータが該供給された
プログラムを実行することによって同等の機能が達成さ
れる場合も本発明に含む。
【0084】従って、本発明の機能処理をコンピュータ
で実現するために、該コンピュータに供給、インストー
ルされるプログラムコード自体も本発明を実現するもの
である。つまり、本発明の機能処理を実現するためのコ
ンピュータプログラム自体も本発明に含まれる。
【0085】その場合、プログラムの機能を有していれ
ば、オブジェクトコード、インタプリタにより実行され
るプログラム、OSに供給するスクリプトデータ等、プ
ログラムの形態を問わない。
【0086】プログラムを供給するための記録媒体とし
ては、例えば、フレキシブルディスク、ハードディス
ク、磁気テープ等の磁気記録媒体、MO、CD−RO
M、CD−R、CD−RW、DVD−ROM、DVD−
R、DVD−RW等の光/光磁気記憶媒体、不揮発性の
半導体メモリなどがある。
【0087】有線/無線通信を用いたプログラムの供給
方法としては、コンピュータネットワーク上のサーバに
本発明を形成するコンピュータプログラムそのもの、も
しくは圧縮され自動インストール機能を含むファイル
等、クライアントコンピュータ上で本発明を形成するコ
ンピュータプログラムとなりうるデータファイル(プロ
グラムデータファイル)を記憶し、接続のあったクライ
アントコンピュータにプログラムデータファイルをダウ
ンロードする方法などが挙げられる。この場合、プログ
ラムデータファイルを複数のセグメントファイルに分割
し、セグメントファイルを異なるサーバに配置すること
も可能である。
【0088】つまり、本発明の機能処理をコンピュータ
で実現するためのプログラムデータファイルを複数のユ
ーザに対してダウンロードさせるサーバ装置も本発明に
含む。
【0089】また、本発明のプログラムを暗号化してC
D−ROM等の記憶媒体に格納してユーザに配布し、所
定の条件を満たしたユーザに対して暗号化を解く鍵情報
を、例えばインターネットを介してホームページからダ
ウンロードさせることによって供給し、その鍵情報を使
用することにより暗号化されたプログラムを実行してコ
ンピュータにインストールさせて実現することも可能で
ある。
【0090】また、コンピュータが、読み出したプログ
ラムを実行することによって、前述した実施形態の機能
が実現される他、そのプログラムの指示に基づき、コン
ピュータ上で稼動しているOSなどが、実際の処理の一
部または全部を行い、その処理によっても前述した実施
形態の機能が実現され得る。
【0091】さらに、記録媒体から読み出されたプログ
ラムが、コンピュータに挿入された機能拡張ボードやコ
ンピュータに接続された機能拡張ユニットに備わるメモ
リに書き込まれた後、そのプログラムの指示に基づき、
その機能拡張ボードや機能拡張ユニットに備わるCPU
などが実際の処理の一部または全部を行い、その処理に
よっても前述した実施形態の機能が実現され得る。
【0092】
【発明の効果】以上説明したように、本発明によれば、
複数の位置姿勢推定処理のうち適切な処理を選択して使
用可能になるため、従来よりも広い範囲で撮像部の位置
姿勢を高精度に推定可能となり、結果として広範囲でユ
ーザに位置ずれのないMR画像を提示することができ
る。
【図面の簡単な説明】
【図1】本発明の第1の実施形態に係る撮像部位置姿勢
推定装置を適用した複合現実感提示システムの構成例を
示すブロック図である。
【図2】図1における複合現実感提示システムの使用時
の状態を説明する図である。
【図3】第1の実施形態における撮像部位置姿勢推定装
置200の動作を説明するフローチャートである。
【図4】画像と6自由度センサを用いた撮像部位置姿勢
推定部170Aの構成例を示すブロック図である。
【図5】画像を用いた撮像部位置姿勢推定部170Bの
構成例を示すブロック図である。
【図6】ジャイロセンサと画像情報を用いた撮像部位置
姿勢推定部170Cの構成例を示すブロック図である。
【図7】図4における位置姿勢推定部430で行われる
処理の概要を示す図である。
【図8】図5の画像処理用マーカ検出部510と位置姿
勢推定部520の処理を説明するフローチャートであ
る。
【図9】図6の位置姿勢推定部610の処理を説明する
フローチャートである。
【図10】本発明の第2の実施形態における選択部16
0Bの動作例を説明するフローチャートである。
【図11】本発明の第2の実施形態に係る撮像部位置姿
勢推定装置を適用した複合現実感提示システムの構成例
を示すブロック図である。
【図12】本発明の第3の実施形態に係る撮像部位置姿
勢推定装置を適用した複合現実感提示システムの構成例
を示すブロック図である。
【図13】図12における複合現実感提示システムの使
用時の状態を説明する図である。
───────────────────────────────────────────────────── フロントページの続き (51)Int.Cl.7 識別記号 FI テーマコート゛(参考) G06T 17/40 G06T 17/40 E H04N 5/262 H04N 5/262 Fターム(参考) 2F065 AA04 AA37 BB28 CC00 EE00 FF04 FF05 FF61 FF65 FF67 JJ03 JJ05 JJ26 QQ00 QQ04 QQ17 QQ18 QQ23 QQ24 QQ25 QQ27 QQ28 QQ39 QQ42 5B050 AA00 BA08 BA09 DA02 DA04 EA24 EA28 FA02 FA05 5B057 AA20 BA02 DA07 DB03 DB06 DB09 DC08 DC25 DC33 5C023 AA11 AA37 AA38 BA11 CA03 5L096 AA09 CA02 FA03 FA06 FA67 FA69 GA32 JA03 JA09

Claims (21)

    【特許請求の範囲】
  1. 【請求項1】 3次元空間内に位置する撮像手段の位置
    姿勢を推定し、位置姿勢情報として出力する撮像部位置
    姿勢推定装置であって、 前記撮像手段の位置姿勢を互いに異なる方法で推定す
    る、2つ以上の推定手段と、 前記推定手段を動的に選択する選択手段とを備え、 前記選択手段で選択された推定手段による推定結果を前
    記位置姿勢情報として出力することを特徴とする撮像部
    位置姿勢推定装置。
  2. 【請求項2】 前記推定手段の少なくとも1つが、前記
    撮像部が撮像した画像を用いて前記推定を行うことを特
    徴とする請求項1記載の撮像部位置姿勢推定装置。
  3. 【請求項3】 前記撮像部が撮像した画像を用いる前記
    推定手段が、前記画像中に含まれる、3次元位置が既知
    である物体の画像を用いて前記推定を行うことを特徴と
    する請求項2記載の撮像部位置姿勢推定装置。
  4. 【請求項4】 前記推定手段の少なくとも1つが、前記
    撮影部が撮像した画像を用いずに前記推定を行うことを
    特徴とする請求項1乃至請求項3のいずれか1項に記載
    の撮像部位置姿勢推定装置。
  5. 【請求項5】 前記撮影部が撮像した画像を用いずに前
    記推定を行う前記推定手段が、前記撮像部又はその近傍
    に設けられた計測手段による計測結果を用いて前記推定
    を行うことを特徴とする請求項4記載の撮像部位置姿勢
    推定装置。
  6. 【請求項6】 前記推定手段の少なくとも1つが、前記
    撮像部が撮像した画像と、前記撮像部又はその近傍に設
    けられた計測手段による計測結果を用いて前記推定を行
    うことを特徴とする請求項1乃至請求項5のいずれか1
    項に記載の撮像部位置姿勢推定装置。
  7. 【請求項7】 前記選択手段が、外部からの選択指示に
    より前記推定手段を選択することを特徴とする請求項1
    乃至請求項6のいずれか1項に記載の撮像部位置姿勢推
    定装置。
  8. 【請求項8】 前記選択手段が、現在選択されている前
    記推定手段の測定誤差、前記位置姿勢情報又は前記撮像
    部が撮像した画像に基づく情報の少なくとも1つに基づ
    いて、前記複数の推定手段のうち1つを選択することを
    特徴とする請求項1乃至請求項6のいずれか1項に記載
    の撮像部位置姿勢推定装置。
  9. 【請求項9】 複数の前記推定手段の推定結果を受け取
    り、前記複数の推定結果のうち1つ、あるいは2つ以上
    の推定結果に基づいて生成した合成推定結果を前記位置
    姿勢情報として出力する選択合成手段を更に有すること
    を特徴とする請求項1乃至請求項6のいずれか1項に記
    載の撮像部位置姿勢推定装置。
  10. 【請求項10】 請求項1乃至請求項9のいずれか1項
    に記載の撮像部位置姿勢推定装置と、 前記撮像部位置姿勢推定装置から得られる前記位置姿勢
    情報を用いて仮想空間画像を生成し、前記撮像部が撮像
    した画像と合成して複合現実感画像を生成する複合現実
    感画像生成手段と、 前記複合現実感画像を前記撮像部を装着するユーザに提
    示する提示手段を有することを特徴とする複合現実感提
    示システム。
  11. 【請求項11】 3次元空間内に位置する撮像手段の位
    置姿勢を、互いに異なる方法で推定する2つ以上の推定
    手段を選択的に用いて推定し、位置姿勢情報として出力
    する撮像部位置姿勢推定装置の制御方法であって、 前記推定手段を動的に選択する選択ステップと、 前記選択ステップで選択された推定手段による推定結果
    を前記位置姿勢情報として出力する出力ステップとを有
    することを特徴とする撮像部位置姿勢推定装置の制御方
    法。
  12. 【請求項12】 前記推定手段の少なくとも1つが、前
    記撮像部が撮像した画像を用いて前記推定を行うことを
    特徴とする請求項11記載の撮像部位置姿勢推定装置の
    制御方法。
  13. 【請求項13】 前記撮像部が撮像した画像を用いる前
    記推定手段が、前記画像中に含まれる、3次元位置が既
    知である物体の画像を用いて前記推定を行うことを特徴
    とする請求項12記載の撮像部位置姿勢推定装置の制御
    方法。
  14. 【請求項14】 前記推定手段の少なくとも1つが、前
    記撮影部が撮像した画像を用いずに前記推定を行うこと
    を特徴とする請求項11乃至請求項13のいずれか1項
    に記載の撮像部位置姿勢推定装置の制御方法。
  15. 【請求項15】 前記撮影部が撮像した画像を用いずに
    前記推定を行う前記推定手段が、前記撮像部又はその近
    傍に設けられた計測手段による計測結果を用いて前記推
    定を行うことを特徴とする請求項14記載の撮像部位置
    姿勢推定装置の制御方法。
  16. 【請求項16】 前記推定手段の少なくとも1つが、前
    記撮像部が撮像した画像と、前記撮像部又はその近傍に
    設けられた計測手段による計測結果を用いて前記推定を
    行うことを特徴とする請求項11乃至請求項15のいず
    れか1項に記載の撮像部位置姿勢推定装置の制御方法。
  17. 【請求項17】 前記選択ステップが、外部からの選択
    指示により前記推定手段を選択することを特徴とする請
    求項11乃至請求項16のいずれか1項に記載の撮像部
    位置姿勢推定装置の制御方法。
  18. 【請求項18】 前記選択ステップが、現在選択されて
    いる前記推定手段の測定誤差、前記位置姿勢情報又は前
    記撮像部が撮像した画像に基づく情報の少なくとも1つ
    に基づいて、前記複数の推定手段のうち1つを選択する
    ことを特徴とする請求項11乃至請求項16のいずれか
    1項に記載の撮像部位置姿勢推定装置の制御方法。
  19. 【請求項19】 複数の前記推定手段の推定結果を受け
    取り、前記複数の推定結果のうち1つ、あるいは2つ以
    上の推定結果に基づいて生成した合成推定結果を前記位
    置姿勢情報として出力する選択合成ステップを更に有す
    ることを特徴とする請求項11乃至請求項16のいずれ
    か1項に記載の撮像部位置姿勢推定装置の制御方法。
  20. 【請求項20】 請求項11乃至請求項19のいずれか
    1項に記載の撮像部位置姿勢推定装置の制御方法をコン
    ピュータ装置に実行させることを特徴とするコンピュー
    タプログラム。
  21. 【請求項21】 請求項20記載のコンピュータプログ
    ラムを格納したことを特徴とするコンピュータ装置読み
    とり可能な記憶媒体。
JP2002081251A 2002-03-22 2002-03-22 撮像部位置姿勢推定装置及びその制御方法並びに複合現実感提示システム Pending JP2003281504A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2002081251A JP2003281504A (ja) 2002-03-22 2002-03-22 撮像部位置姿勢推定装置及びその制御方法並びに複合現実感提示システム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2002081251A JP2003281504A (ja) 2002-03-22 2002-03-22 撮像部位置姿勢推定装置及びその制御方法並びに複合現実感提示システム

Publications (1)

Publication Number Publication Date
JP2003281504A true JP2003281504A (ja) 2003-10-03

Family

ID=29229963

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2002081251A Pending JP2003281504A (ja) 2002-03-22 2002-03-22 撮像部位置姿勢推定装置及びその制御方法並びに複合現実感提示システム

Country Status (1)

Country Link
JP (1) JP2003281504A (ja)

Cited By (38)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005293141A (ja) * 2004-03-31 2005-10-20 Canon Inc マーカ検出方法及び装置並びに位置姿勢推定方法
JP2005326274A (ja) * 2004-05-14 2005-11-24 Canon Inc 配置情報推定方法および情報処理装置
JP2005326282A (ja) * 2004-05-14 2005-11-24 Canon Inc 位置姿勢計測方法および装置
JP2006313549A (ja) * 2005-05-03 2006-11-16 Seac02 Srl 実マーカオブジェクトを識別する拡張現実システム
JP2007187524A (ja) * 2006-01-12 2007-07-26 Shimadzu Corp 磁気マッピング装置
JP2007525663A (ja) * 2004-01-30 2007-09-06 エレクトロニック・スクリプティング・プロダクツ・インコーポレイテッド 長寸の物体の姿勢から得られた姿勢データの処理方法及び装置
JP2007271563A (ja) * 2006-03-31 2007-10-18 Canon Inc 位置姿勢計測方法及び装置
JP2008046750A (ja) * 2006-08-11 2008-02-28 Canon Inc 画像処理装置および方法
JP2008209142A (ja) * 2007-02-23 2008-09-11 Nintendo Co Ltd 情報処理プログラムおよび情報処理装置
JP2009085805A (ja) * 2007-10-01 2009-04-23 Shimadzu Corp モーショントラッカ装置
JP2010515189A (ja) * 2007-01-05 2010-05-06 トタル イメルシオン 画像により表現されている実シーンからのデータを使って、画像ストリームに仮想オブジェクトをリアルタイムで挿入するための方法と装置
JP2010532465A (ja) * 2007-05-22 2010-10-07 メタイオ ゲゼルシャフト ミット ベシュレンクテル ハフツング 拡張リアリティイメージのためのカメラポーズ推定装置および方法
JP2010257461A (ja) * 2009-04-26 2010-11-11 Ailive Inc ネットワークゲーム用の共有ゲーム空間を創出する方法およびシステム
JP2011134343A (ja) * 2011-02-24 2011-07-07 Nintendo Co Ltd 画像処理プログラム、画像処理装置、画像処理システム、および画像処理方法
JP2012212460A (ja) * 2012-06-22 2012-11-01 Nintendo Co Ltd 画像処理プログラム、画像処理装置、画像処理システム、および画像処理方法
JP2013134538A (ja) * 2011-12-26 2013-07-08 Sony Corp 情報処理端末、情報処理方法、およびプログラム
JP2013534616A (ja) * 2010-05-17 2013-09-05 コミシリア ア レネルジ アトミック エ オ エナジーズ オルタネティヴズ 画像センサおよび運動または位置センサから生じたデータを融合するための方法およびシステム
US8571266B2 (en) 2011-02-24 2013-10-29 Nintendo Co., Ltd. Computer-readable storage medium, image processing apparatus, image processing system, and image processing method
US8625898B2 (en) 2011-02-24 2014-01-07 Nintendo Co., Ltd. Computer-readable storage medium, image recognition apparatus, image recognition system, and image recognition method
US8705869B2 (en) 2011-02-24 2014-04-22 Nintendo Co., Ltd. Computer-readable storage medium, image recognition apparatus, image recognition system, and image recognition method
US8705868B2 (en) 2011-02-24 2014-04-22 Nintendo Co., Ltd. Computer-readable storage medium, image recognition apparatus, image recognition system, and image recognition method
US8718325B2 (en) 2011-02-24 2014-05-06 Nintendo Co., Ltd. Computer-readable storage medium, image processing apparatus, image processing system, and image processing method
JP2014167786A (ja) * 2012-10-31 2014-09-11 Boeing Co 拡張現実のための自動基準フレーム較正
JP2014170483A (ja) * 2013-03-05 2014-09-18 Nintendo Co Ltd 情報処理システム、情報処理装置、情報処理方法、および情報処理用プログラム
JP2014216813A (ja) * 2013-04-25 2014-11-17 日本放送協会 カメラ姿勢推定装置及びそのプログラム
WO2015045834A1 (ja) * 2013-09-30 2015-04-02 独立行政法人産業技術総合研究所 マーカ画像処理システム
JP2015158461A (ja) * 2014-02-25 2015-09-03 富士通株式会社 姿勢推定装置、姿勢推定方法及び姿勢推定用コンピュータプログラム
JP2015528936A (ja) * 2012-06-14 2015-10-01 クアルコム,インコーポレイテッド ビジョン支援慣性カメラポーズ推定とビジョンベースのみのカメラポーズ推定との間の適応的な切替え
JP2015532077A (ja) * 2012-09-27 2015-11-05 メタイオ ゲゼルシャフト ミット ベシュレンクテル ハフツングmetaio GmbH 少なくとも1つの画像を撮影する撮影装置に関連する装置の位置及び方向の決定方法
JP2015225014A (ja) * 2014-05-29 2015-12-14 日本電信電話株式会社 位置推定装置、位置推定方法、およびプログラム
WO2016017121A1 (ja) * 2014-07-28 2016-02-04 パナソニックIpマネジメント株式会社 拡張現実表示システム、端末装置および拡張現実表示方法
JP2017036970A (ja) * 2015-08-07 2017-02-16 キヤノン株式会社 情報処理装置、情報処理方法、プログラム
US9710967B2 (en) 2011-08-31 2017-07-18 Nintendo Co., Ltd. Information processing program, information processing system, information processing apparatus, and information processing method, utilizing augmented reality technique
WO2019187167A1 (ja) * 2018-03-31 2019-10-03 株式会社スペシャルエフエックススタジオ 端末の表示画像の表示法
JP2019532447A (ja) * 2016-09-01 2019-11-07 アルジョ ソリューションズArjo Solutions 表面署名を生成するための方法およびシステム
JP2021018206A (ja) * 2019-07-23 2021-02-15 株式会社島津製作所 ヘッドモーショントラッカ装置
JPWO2021140631A1 (ja) * 2020-01-09 2021-07-15
WO2025033109A1 (ja) * 2023-08-04 2025-02-13 ソニーグループ株式会社 情報処理装置および方法

Cited By (55)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007525663A (ja) * 2004-01-30 2007-09-06 エレクトロニック・スクリプティング・プロダクツ・インコーポレイテッド 長寸の物体の姿勢から得られた姿勢データの処理方法及び装置
JP4809778B2 (ja) * 2004-01-30 2011-11-09 エレクトロニック・スクリプティング・プロダクツ・インコーポレイテッド 長寸の物体の姿勢から得られた姿勢データの処理方法及び装置
JP2005293141A (ja) * 2004-03-31 2005-10-20 Canon Inc マーカ検出方法及び装置並びに位置姿勢推定方法
JP2005326274A (ja) * 2004-05-14 2005-11-24 Canon Inc 配置情報推定方法および情報処理装置
JP2005326282A (ja) * 2004-05-14 2005-11-24 Canon Inc 位置姿勢計測方法および装置
JP2006313549A (ja) * 2005-05-03 2006-11-16 Seac02 Srl 実マーカオブジェクトを識別する拡張現実システム
JP2007187524A (ja) * 2006-01-12 2007-07-26 Shimadzu Corp 磁気マッピング装置
JP2007271563A (ja) * 2006-03-31 2007-10-18 Canon Inc 位置姿勢計測方法及び装置
JP2008046750A (ja) * 2006-08-11 2008-02-28 Canon Inc 画像処理装置および方法
JP2010515189A (ja) * 2007-01-05 2010-05-06 トタル イメルシオン 画像により表現されている実シーンからのデータを使って、画像ストリームに仮想オブジェクトをリアルタイムで挿入するための方法と装置
JP2008209142A (ja) * 2007-02-23 2008-09-11 Nintendo Co Ltd 情報処理プログラムおよび情報処理装置
JP2010532465A (ja) * 2007-05-22 2010-10-07 メタイオ ゲゼルシャフト ミット ベシュレンクテル ハフツング 拡張リアリティイメージのためのカメラポーズ推定装置および方法
JP2013178252A (ja) * 2007-05-22 2013-09-09 Metaio Gmbh 拡張リアリティイメージのためのカメラポーズ推定装置および方法
US8452080B2 (en) 2007-05-22 2013-05-28 Metaio Gmbh Camera pose estimation apparatus and method for augmented reality imaging
US10033985B2 (en) 2007-05-22 2018-07-24 Apple Inc. Camera pose estimation apparatus and method for augmented reality imaging
JP2009085805A (ja) * 2007-10-01 2009-04-23 Shimadzu Corp モーショントラッカ装置
JP2010257461A (ja) * 2009-04-26 2010-11-11 Ailive Inc ネットワークゲーム用の共有ゲーム空間を創出する方法およびシステム
JP2013534616A (ja) * 2010-05-17 2013-09-05 コミシリア ア レネルジ アトミック エ オ エナジーズ オルタネティヴズ 画像センサおよび運動または位置センサから生じたデータを融合するための方法およびシステム
JP2011134343A (ja) * 2011-02-24 2011-07-07 Nintendo Co Ltd 画像処理プログラム、画像処理装置、画像処理システム、および画像処理方法
US8718325B2 (en) 2011-02-24 2014-05-06 Nintendo Co., Ltd. Computer-readable storage medium, image processing apparatus, image processing system, and image processing method
US8571266B2 (en) 2011-02-24 2013-10-29 Nintendo Co., Ltd. Computer-readable storage medium, image processing apparatus, image processing system, and image processing method
US8625898B2 (en) 2011-02-24 2014-01-07 Nintendo Co., Ltd. Computer-readable storage medium, image recognition apparatus, image recognition system, and image recognition method
US8699749B2 (en) 2011-02-24 2014-04-15 Nintendo Co., Ltd. Computer-readable storage medium, image processing apparatus, image processing system, and image processing method
US8705869B2 (en) 2011-02-24 2014-04-22 Nintendo Co., Ltd. Computer-readable storage medium, image recognition apparatus, image recognition system, and image recognition method
US8705868B2 (en) 2011-02-24 2014-04-22 Nintendo Co., Ltd. Computer-readable storage medium, image recognition apparatus, image recognition system, and image recognition method
US9710967B2 (en) 2011-08-31 2017-07-18 Nintendo Co., Ltd. Information processing program, information processing system, information processing apparatus, and information processing method, utilizing augmented reality technique
JP2013134538A (ja) * 2011-12-26 2013-07-08 Sony Corp 情報処理端末、情報処理方法、およびプログラム
JP2015528936A (ja) * 2012-06-14 2015-10-01 クアルコム,インコーポレイテッド ビジョン支援慣性カメラポーズ推定とビジョンベースのみのカメラポーズ推定との間の適応的な切替え
JP2012212460A (ja) * 2012-06-22 2012-11-01 Nintendo Co Ltd 画像処理プログラム、画像処理装置、画像処理システム、および画像処理方法
JP2015532077A (ja) * 2012-09-27 2015-11-05 メタイオ ゲゼルシャフト ミット ベシュレンクテル ハフツングmetaio GmbH 少なくとも1つの画像を撮影する撮影装置に関連する装置の位置及び方向の決定方法
JP2014167786A (ja) * 2012-10-31 2014-09-11 Boeing Co 拡張現実のための自動基準フレーム較正
JP2014170483A (ja) * 2013-03-05 2014-09-18 Nintendo Co Ltd 情報処理システム、情報処理装置、情報処理方法、および情報処理用プログラム
JP2014216813A (ja) * 2013-04-25 2014-11-17 日本放送協会 カメラ姿勢推定装置及びそのプログラム
WO2015045834A1 (ja) * 2013-09-30 2015-04-02 独立行政法人産業技術総合研究所 マーカ画像処理システム
US10262429B2 (en) 2013-09-30 2019-04-16 National Institute Of Advanced Industrial Science Marker image processing system
JPWO2015045834A1 (ja) * 2013-09-30 2017-03-09 国立研究開発法人産業技術総合研究所 マーカ画像処理システム
JP2015158461A (ja) * 2014-02-25 2015-09-03 富士通株式会社 姿勢推定装置、姿勢推定方法及び姿勢推定用コンピュータプログラム
JP2015225014A (ja) * 2014-05-29 2015-12-14 日本電信電話株式会社 位置推定装置、位置推定方法、およびプログラム
US10152826B2 (en) 2014-07-28 2018-12-11 Panasonic Intellectual Property Mangement Co., Ltd. Augmented reality display system, terminal device and augmented reality display method
JPWO2016017121A1 (ja) * 2014-07-28 2017-06-22 パナソニックIpマネジメント株式会社 拡張現実表示システム、端末装置および拡張現実表示方法
WO2016017121A1 (ja) * 2014-07-28 2016-02-04 パナソニックIpマネジメント株式会社 拡張現実表示システム、端末装置および拡張現実表示方法
JP2017036970A (ja) * 2015-08-07 2017-02-16 キヤノン株式会社 情報処理装置、情報処理方法、プログラム
US11151374B2 (en) 2016-09-01 2021-10-19 Arjo Solutions Method and system for generating a surface signature
JP2019532447A (ja) * 2016-09-01 2019-11-07 アルジョ ソリューションズArjo Solutions 表面署名を生成するための方法およびシステム
JP2022166116A (ja) * 2016-09-01 2022-11-01 アルジョ ソリューションズ 表面署名を生成するための方法およびシステム
JP7316419B2 (ja) 2016-09-01 2023-07-27 アルジョ ソリューションズ 表面署名を生成するための方法およびシステム
JP7623101B2 (ja) 2016-09-01 2025-01-28 アルジョ ソリューションズ 表面署名を生成するための方法およびシステム
WO2019187167A1 (ja) * 2018-03-31 2019-10-03 株式会社スペシャルエフエックススタジオ 端末の表示画像の表示法
JP2021018206A (ja) * 2019-07-23 2021-02-15 株式会社島津製作所 ヘッドモーショントラッカ装置
JP7334521B2 (ja) 2019-07-23 2023-08-29 株式会社島津製作所 ヘッドモーショントラッカ装置
JPWO2021140631A1 (ja) * 2020-01-09 2021-07-15
WO2021140631A1 (ja) * 2020-01-09 2021-07-15 マクセル株式会社 空間認識システム、空間認識方法、および情報端末
JP7525515B2 (ja) 2020-01-09 2024-07-30 マクセル株式会社 空間認識システム、空間認識方法、および情報端末
US12154330B2 (en) 2020-01-09 2024-11-26 Maxell, Ltd. Space recognition system, space recognition method and information terminal
WO2025033109A1 (ja) * 2023-08-04 2025-02-13 ソニーグループ株式会社 情報処理装置および方法

Similar Documents

Publication Publication Date Title
JP2003281504A (ja) 撮像部位置姿勢推定装置及びその制御方法並びに複合現実感提示システム
CN109561296B (zh) 图像处理装置、图像处理方法、图像处理系统和存储介质
JP4065507B2 (ja) 情報提示装置および情報処理方法
US8144238B2 (en) Image processing apparatus and method
US7529387B2 (en) Placement information estimating method and information processing device
JP4532856B2 (ja) 位置姿勢計測方法及び装置
JP4757142B2 (ja) 撮影環境校正方法及び情報処理装置
US7092109B2 (en) Position/orientation measurement method, and position/orientation measurement apparatus
JP5093053B2 (ja) 電子カメラ
US10930008B2 (en) Information processing apparatus, information processing method, and program for deriving a position orientation of an image pickup apparatus using features detected from an image
JP6503906B2 (ja) 画像処理装置、画像処理方法および画像処理プログラム
JP3976900B2 (ja) 視点位置姿勢の決定方法及びカメラ装置
US20030012410A1 (en) Tracking and pose estimation for augmented reality using real features
EP1596329A2 (en) Marker placement information estimating method and information processing device
JP6894707B2 (ja) 情報処理装置およびその制御方法、プログラム
JP7224350B2 (ja) 画像キャプチャ装置及び画像キャプチャ方法
JP2005107247A (ja) 位置姿勢推定方法および装置
JP6196562B2 (ja) 被写体情報重畳装置、被写体情報重畳方法及びプログラム
JP4502361B2 (ja) 指標姿勢検出方法および装置
JP2004062757A (ja) 情報処理方法および撮像部位置姿勢推定装置
JP5530391B2 (ja) カメラポーズ推定装置、カメラポーズ推定方法及びカメラポーズ推定プログラム
JP2005107964A (ja) 指標識別方法および装置
JP6759300B2 (ja) 情報処理装置、情報処理方法及びプログラム
JP4497880B2 (ja) 指標識別方法および装置
JP2024062512A (ja) 情報処理装置、移動デバイス、システム、制御方法、及びプログラム

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20061220

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20070105

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20070427