[go: up one dir, main page]

JP2006172026A - カメラ運動と3次元情報の復元装置、復元方法、およびプログラム - Google Patents

カメラ運動と3次元情報の復元装置、復元方法、およびプログラム Download PDF

Info

Publication number
JP2006172026A
JP2006172026A JP2004362152A JP2004362152A JP2006172026A JP 2006172026 A JP2006172026 A JP 2006172026A JP 2004362152 A JP2004362152 A JP 2004362152A JP 2004362152 A JP2004362152 A JP 2004362152A JP 2006172026 A JP2006172026 A JP 2006172026A
Authority
JP
Japan
Prior art keywords
motion
dimensional information
matrix
optical axis
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2004362152A
Other languages
English (en)
Inventor
Isao Miyagawa
勲 宮川
Yoshiori Wakabayashi
佳織 若林
Kenichi Arakawa
賢一 荒川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nippon Telegraph and Telephone Corp
Original Assignee
Nippon Telegraph and Telephone Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Telegraph and Telephone Corp filed Critical Nippon Telegraph and Telephone Corp
Priority to JP2004362152A priority Critical patent/JP2006172026A/ja
Publication of JP2006172026A publication Critical patent/JP2006172026A/ja
Pending legal-status Critical Current

Links

Images

Landscapes

  • Length Measuring Devices By Optical Means (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)

Abstract

【課題】安定してカメラ運動と3次元情報を同時に、かつ、ロバストに復元する。
【解決手段】時系列画像を格納する時系列画像データベース部1、そのデータベース部1から画像系列を取り出し、全フレーム間の特徴点の画像座標値を観測し、カメラ運動と3次元情報を復元するための元になる漸近行列データを生成する漸近行列生成部2、漸近行列データから平面運動と3次元情報を復元する平面運動・3次元情報復元部3、光軸回転以外の回転運動と光軸並進運動を復元し、カメラ運動を平面運動へ漸近(安定化)させるために次の反復が必要かどうかの判定を行い、反復が必要な場合は漸近行列生成部2へ漸近行列データを生成するために必要な情報を渡す安定化処理部4から構成される。
【選択図】 図1

Description

本発明は、カメラを使って取得した車載画像または室内画像、船上からの海上画像、空撮画像、全方位カメラで撮影した全方位画像、歩行しながら撮影した歩行撮影画像などの時系列画像全般に対してカメラ運動と3次元情報を復元する装置、方法に係り、時系列画像から、カメラの視点を原点として設定したカメラ座標系におけるロール、ピッチ、ヨー回転から構成される三軸(XYZ)周りの回転運動、三軸(XYZ)方向の並進運動、並びに、時系列映像に写っている外界の3次元形状、すなわち、被写体(物体)の外観形状を構成する3次元情報を復元する装置、方法に関する。
コンピュータビジョン分野では、時系列画像から、対象物の形状を計測または獲得する手法には、ステレオ計測やエピポーラ面解析を用いた3次元解析手法がある。この手法によれば、物体が撮影されている複数の時系列画像から、空間形状または空間構造に関する3次元位置情報、並びに、カメラ視点に関する運動を復元することができる。しかし、移動手段などを利用して撮影カメラを動かしながら撮影した時系列映像においては、撮影時の環境、撮影カメラの微小な動きによりシームレスに映像取得が困難であり、時系列映像中にランダム性の雑音が混入し、カメラ運動や物体形状を正確に復元することが困難な場合がある。
このような問題に対して、カメラで撮影した映像シーンから、ユークリッド空間でのカメラ運動と物体形状を同時に、かつ、ロバストに復元する手法が存在する。例えば、取得する画像において特徴点をつけ、この特徴点を時系列に追跡して得た画像座標値から、カメラ運動と3次元情報を復元する代表的な手法として因子分解法がある(例えば、被特許文献1参照)。
この因子分解法では、式(A1)に示すように、画像上において取得した時系列のxy画像座標値(式(A1)左辺)から、カメラ運動に関する行列(右辺の左側の行列((mix,miy,miz)と(nix,niy,niz)は第iフレームでの投影モデルに従ったカメラ運動の成分を表す)と3次元情報(X,Y,Z)に関する行列(右辺の右側の行列、(Xj,Yj,Zj)は第j番目の3次元座標値)に分解する手法である。この行列分解には特異値分解なる数学的手法が使われている。式(A1)左辺は計測行列と呼ばれており、行方向は特徴点の数を、列方向はフレーム順を表す。(xij,yij)は第iフレームの第j番目の特徴点の画像座標値となっている。
Figure 2006172026
因子分解法では、式(A1)左辺は画像から得られる2次元情報(あらかじめ各フレームの重心座標値を引いた2次元座標値としている)だけになっており、式(A1)右辺の行列により行列演算する(線形演算する)ことで左辺の画像座標値が得られるという投影モデルに基づいている。しかし、式(A1)に分解できる投影モデルは正射影、弱透視投影、平行透視投影モデルに限る。これらの投影モデルは現実の透視投影モデルの近似形式であり、被写体とカメラの関係によってはそれぞれの条件が近似的に成り立つ場合もあるが、一般的には透視投影モデルとのギャップのために式(A1)のように因子分解した場合はカメラ運動、3次元形状の精度は悪い。
これに対して、透視投影型因子分解法を使うと、式(A1)の因子分解法を反復的に利用して透視投影モデルに漸近させて、透視投影像の条件でカメラ運動と3次元形状を同時に復元することができる。この方法により正射影、弱透視、平行透視投影モデルより高精度にカメラ運動と3次元形状が得られるが、各反復において分解した際の符号を考慮する必要があり、場合によっては透視投影を満たす正確なカメラ運動と3次元形状を求めることが困難であった。
C.Tomasi and T.Kanade;"Shape and Motion from Image Streams UnderOrthography:A Factorization Method",International Journal of Computer Vision,Vol.9,No.2,1992。
カメラを車両などの移動手段に搭載し、市街地を移動観測する場合、路面と車両の関係でカメラ振動(カメラの揺れ)が発生する。また、カメラ付き携帯電話、ディジタルカメラなどの市販カメラで被写体を撮影したとき、手振れが発生し、撮影中に微小に振動することで映像シーンが揺れるという問題がある。
このようなカメラ振動や手振れのある映像シーンにおいてカメラ運動と3次元形状を復元しようとするとき、因子分解法が有効な手法であるが、透視投影型因子分解法を使う場合、カメラ振動や手振れによるカメラ振動を正確に求めることができず、そのため3次元形状が歪んでしまうという問題があった。この問題は並進運動として復元されなければならないカメラ運動が回転運動に転換されてしまうことが原因の一つとなっている。
一方、市販カメラにはカメラ振動や手振れ補正機能を有するカメラもあり、撮影中のカメラ振動や手振れを低減したシームレスな映像シーンを撮影することができる。一般的に、手振れ補正は角度センサやジャイロセンサによりカメラ振動や手振れの振動を検出し、それに合わせて集光レンズを移動させるという光学式手振れ補正タイプと、画面中のオプティカルフローを検出してCCD面において画素をシフトして揺れを低減させる電子式手振れ補正タイプに大別できる。しかし、どちらの補正方式においてもカメラ運動と3次元形状を復元するための投影モデルを定式化することが困難であり、正確な投影モデルを得るには多くのパラメータが介在するため、因子分解法の適用が困難である。
そこで、移動観測でのカメラ振動や手振れがある映像シーンにおいてもロバスト、かつ、高精度にカメラ運動と3次元形状を同時に復元することが重要であるが、透視投影型因子分解法のように解を得るために符号を考慮せず、かつ、安定してカメラ運動と3次元形状を求める必要がある。
カメラを使って外界を撮像し、その得られた画像系列からカメラ視点の運動と3次元情報を復元しようとするとき、カメラ視点に関する運動と対象物の3次元座標値は、図14の状況において、式(A2)の式で関係付けられる。
Figure 2006172026
式(A2)の(x'ij,y'ij,z'ij)は視点を原点とした単位半球面座標値であり、画像上へ投影されて得られる対象物(特徴点)の画像座標値は(xij,yij)=(x'ij/z’ij,y'ij/z'ij)として観測できる。ただし、λijは画像座標値から直接得られず、しかも、時系列に依存する成分(サフィックスがiのもの)と時系列に依存しない成分(サフィックスがjのもの)に分離できないため、式(A2)左辺においてある。式(A2)右辺は4つの行列からなっているが、3つの回転行列を展開して1つの行列にして、式(A1)右辺のカメラ運動に対応する行列とすることもできるが、式(A2)そのものから分かるように、式(A1)のように左辺には画像座標値から得た情報、右辺にはカメラ運動に対応する情報(サフィックスがiのもの)と3次元情報に対応する情報(サフィックスがjのもの)に変形することは困難である。言い換えれば、式(A2)に基づいて因子分解法を応用してカメラ運動と3次元情報を復元することはできない。
本発明が解決しようとする課題は、式(A2)に示す投影モデルにおいて、下記の特許文献の方法を利用して、解の符号などのあいまいさを考慮せず、安定してカメラ運動と3次元情報を同時に、かつ、ロバストに復元することを課題とする。
特許文献「特開2003−271925、宮川,小澤,若林,有川:“全方位カメラ視点運動並びに物体形状復元方法、装置、全方位カメラ視点運動並びに物体形状復元方法プログラム、及び、該プログラムを記録した記録媒体”」
(原理的な説明)
本発明は、カメラ振動を回転運動の小さな変化であるとして、式(A2)においてカメラ運動に対して制限をつけ、その制限された回転運動のカメラ運動で撮像した投影モデルを前提とする。すなわち、式(A2)においてi=1,2,…,F;j=1,2,…,Pに行列展開した投影モデルにおいて、ロール回転、ピッチ回転が微小なとき、すなわち、cosψ≒1,sinψ≒ψ,cosω≒1,sinω≒ωとして、変形し整理すると、
Figure 2006172026
Figure 2006172026
Figure 2006172026
Figure 2006172026
となる。この投影モデルでは、式(A3)右辺を見るとわかるように、右辺左側の行列は時系列に依存する情報(カメラの運動に関する情報)であり、右辺右側の行列は時系列に依存しない不変な情報(外界の3次元情報)となっている。これは前記の特許文献で因子分解される平面運動と3次元情報の形態となっている。一方、式(A3)左辺は画像から得られる情報以外に、カメラ運動と3次元情報に関する情報がかかわっており、上記のカメラ運動を制限した場合においても、投影モデルは煩雑すぎて前記の特許文献を安易に応用して、カメラ運動と3次元情報を同時に復元することはできない。しかし、画像で観測した画像座標値(xij,yij)から式(A3)左辺のように変換ができれば、前記の特許文献の手法によりカメラ運動と3次元形状を復元することができる。
本発明では、式(A3)の投影モデルに基づき、ロール回転ωi、ピッチ回転ψi、ヨー回転θi、XYZ並進運動(Txi,Tyi,Tzi);i=1,2,…,F、並びに、外界の3次元情報(Xj,Yj,Zj);j=1,2,…,P(以降、3次元情報とは、P個の特徴点に関する3次元座標値を指す)を復元する。式(A3)を解くために、本発明における漸近行列入力ステップにおいて式(A3)左辺の行列要素を反復的に生成し、本発明における平面運動・3次元情報復元ステップにおいて前記の特許文献の手法を利用して平面運動と3次元情報を復元する。
本発明はカメラ運動を平面運動へ漸近させることで、カメラ振動により揺れるカメラ運動を平面運動へ安定化させる。つまり、次の反復での式(A3)左辺の行列要素を本発明における漸近行列入力ステップにおいて、平面運動以外のピッチ、ロール回転(光軸回転以外の回転)と光軸並進運動を使って、観測した画像座標値から平面運動で投影した画像座標値へ変換する。この変換はカメラ運動を平面運動に安定化させることと等価である。本発明における安定化処理ステップでは安定化のための必要な変換係数、並びに、平面運動以外のピッチ、ロール回転(光軸回転以外の回転)と光軸並進運動を求めており、安定化が進むことで、本発明の平面運動・3次元情報復元ステップにおいて平面運動と3次元情報を高精度に求められる。
このように、本発明では、前記の特許文献の手法を反復的に利用して段階的に復元処理を繰り返し行うことで、近似的に、式(A3)の投影モデルに基づいたカメラ運動と3次元情報を復元することを可能としている。
以上のことから、本発明は、以下の装置、方法およびプログラムを特徴とする。
(装置の発明)
(1)時系列画像中において、対象とする画像に配置した特徴点に関する画像座標値の時間的変化量から、時系列におけるカメラ視点の運動、並びに、外界の物体形状を構成する3次元情報を復元する装置であって、
時系列画像に設定した特徴点座標系において、各フレーム画像における特徴点の画像座標値(観測座標値)を入力し、その観測座標値にカメラの回転運動、光軸座標値、並進運動、並びに、3次元情報からなる係数をかけた座標値を要素とする漸近行列データを生成する漸近行列生成手段と、
前記漸近行列データを特異値分解し、雑音除去を行って運動情報を表す行列データと3次元情報を表す行列データを得て、その運動情報において、運動を規定するために設定した条件を満足する変換行列を求め、運動情報を表す行列データに前記変換行列を作用させてカメラ視点に関する光軸周りの回転運動と光軸と垂直な平面上の並進運動(これらの成分からなる自由度3の平面運動)を復元し、並びに、3次元情報を表す行列データに前記変換行列の逆行列を作用させて物体形状を構成する3次元情報を復元する平面運動・3次元情報復元手段と、
前記平面運動・3次元情報復元手段で得た平面運動と3次元情報から算出する再投影誤差と、前記漸近行列生成手段で得た観測座標値に、係数εと光軸座標値で変換した座標値を行列要素とする行列データを求め、その行列データを特異値分解して雑音を除去した行列データと、前記平面運動・3次元情報復元手段で得た各特徴点のZ座標値(Z方向を鉛直方向にしたときの特徴点位置の高さ)を要素とする行列から、カメラ視点の光軸方向の並進運動を復元し、その復元した光軸並進運動により係数δを更新する光軸運動復元手段と、
前記漸近行列生成手段で得た観測座標値と、前記平面運動・3次元情報復元手段で得た平面運動と3次元情報から得る再投影誤差に係数δで変換した座標値の間の誤差を求め、その誤差を行列要素とする行列データと、前記平面運動・3次元情報復元手段で得た平面運動、3次元情報、並びに、前記光軸運動復元手段で得た光軸並進運動から、光軸以外の互いに直交する軸周りの回転運動を求め、その復元した回転運動により係数εと光軸座標値を更新する回転運動復元手段と、
前記漸近行列生成手段で得た観測座標値を前記回転運動復元手段で更新された変換係数(係数ε)と光軸座標値、並びに、前記光軸運動復元手段で更新された変換係数(係数δ)を使って変換した座標値と、前記平面運動・3次元情報復元手段で得た平面運動と3次元情報から各フレーム画像に対する特徴点の再投影座標値との間で平面運動への漸近値を表す漸近誤差を求め、この漸近誤差の増減により前記光軸並進運動復元手段による処理と前記回転運動復元手段における処理を切り替えて該漸近誤差を減少(カメラ運動を平面運動へ漸近)させる処理を繰り返す安定化処理手段と、
を有することを特徴とする。
(2)上記(1)において、全方位画像に設定した特徴点座標系において、各フレーム画像における特徴点の画像座標値を入力する手段と、その画像座標値からある基準軸からの方位角(位相角)と、全方位カメラに使用されている投影方式に従って求められる光軸方向からの角(仰角)を求める手段と、前記位相角と仰角を使って座標変換した座標値を前記観測座標値として求める手段とを有することを特徴とする。
(3)上記(1)において、時系列画像に設定した特徴点座標系において、各フレーム画像における特徴点の画像座標値を入力する手段と、その観測座標値を行列要素とする行列を特異値分解する手段と、この特異値の成分から運動の自由度を表す判定値を算出する手段と、この判定値がある一定値未満の場合は、平面運動と見なして光軸周りの回転とその光軸に垂直な平面上の運動からなる自由度3の平面運動と3次元情報を復元する手段と、前記判定値がある一定値以上の場合は、カメラの回転運動と並進運動からなる自由度6の運動と3次元情報を復元する手段とを有することを特徴とする。
(4)上記(1)において、全方位画像に設定した特徴点座標系において、各フレーム画像における特徴点の画像座標値を入力する手段と、その画像座標値からある基準軸からの方位角(位相角)と、全方位カメラに使用されている投影方式に従って求められる光軸方向からの角(仰角)を求める手段と、前記位相角と仰角を使って座標変換した座標値を前記観測座標値として求める手段と、
前記観測座標値を行列要素とする行列を特異値分解する手段と、この特異値の成分から運動の自由度を表す判定値を算出する手段と、この判定値がある一定値未満の場合は、平面運動と見なして光軸周りの回転とその光軸に垂直な平面上の運動からなる自由度3の平面運動と3次元情報を復元する手段と、前記判定値がある一定値以上の場合は、カメラの回転運動と並進運動からなる自由度6の運動と3次元情報を復元する手段と、
を有することを特徴とする。
(方法の発明)
(5)時系列画像中において、対象とする画像に配置した特徴点に関する画像座標値の時間的変化量から、時系列におけるカメラ視点の運動、並びに、外界の物体形状を構成する3次元情報を復元する方法であって、
時系列画像に設定した特徴点座標系において、各フレーム画像における特徴点の画像座標値(観測座標値)を入力し、その観測座標値にカメラの回転運動、光軸座標値、並進運動、並びに、3次元情報からなる係数をかけた座標値を要素とする漸近行列データを生成する漸近行列生成ステップと、
前記漸近行列データを特異値分解し、雑音除去を行って運動情報を表す行列データと3次元情報を表す行列データを得て、その運動情報において、運動を規定するために設定した条件を満足する変換行列を求め、運動情報を表す行列データに前記変換行列を作用させてカメラ視点に関する光軸周りの回転運動と光軸と垂直な平面上の並進運動(これらの成分からなる自由度3の平面運動)を復元し、並びに、3次元情報を表す行列データに前記変換行列の逆行列を作用させて物体形状を構成する3次元情報を復元する平面運動・3次元情報復元ステップと、
前記平面運動・3次元情報復元ステップで得た平面運動と3次元情報から算出する再投影誤差と、前記漸近行列生成ステップで得た観測座標値に、係数εと光軸座標値で変換した座標値を行列要素とする行列データを求め、その行列データを特異値分解して雑音を除去した行列データと、前記平面運動・3次元情報復元ステップで得た各特徴点のZ座標値(Z方向を鉛直方向にしたときの特徴点位置の高さ)を要素とする行列から、カメラ視点の光軸方向の並進運動を復元し、その復元した光軸並進運動により係数δを更新する光軸運動復元ステップと、
前記漸近行列生成ステップで得た観測座標値と、前記平面運動・3次元情報復元ステップで得た平面運動と3次元情報から得る再投影誤差に係数δで変換した座標値の間の誤差を求め、その誤差を行列要素とする行列データと、前記平面運動・3次元情報復元ステップで得た平面運動、3次元情報、並びに、前記光軸運動復元ステップで得た光軸並進運動から、光軸以外の互いに直交する軸周りの回転運動を求め、その復元した回転運動により係数εと光軸座標値を更新する回転運動復元ステップと、
前記漸近行列生成ステップで得た観測座標値を前記回転運動復元ステップで更新された変換係数(係数ε)と光軸座標値、並びに、前記光軸運動復元ステップで更新された変換係数(係数δ)を使って変換した座標値と、前記平面運動・3次元情報復元ステップで得た平面運動と3次元情報から各フレーム画像に対する特徴点の再投影座標値との間で平面運動への漸近値を表す漸近誤差を求め、この漸近誤差の増減により前記光軸並進運動復元ステップによる処理と前記回転運動復元ステップにおける処理を切り替えて該漸近誤差を減少(カメラ運動を平面運動へ漸近)させる処理を繰り返す安定化処理ステップと、
を有することを特徴とする。
(6)上記(5)において、全方位画像に設定した特徴点座標系において、各フレーム画像における特徴点の画像座標値を入力するステップと、その画像座標値からある基準軸からの方位角(位相角)と、全方位カメラに使用されている投影方式に従って求められる光軸方向からの角(仰角)を求めるステップと、前記位相角と仰角を使って座標変換した座標値を前記観測座標値として求めるステップとを有することを特徴とする。
(7)上記(5)において、時系列画像に設定した特徴点座標系において、各フレーム画像における特徴点の画像座標値を入力するステップと、その観測座標値を行列要素とする行列を特異値分解するステップと、この特異値の成分から運動の自由度を表す判定値を算出するステップと、この判定値がある一定値未満の場合は、平面運動と見なして光軸周りの回転とその光軸に垂直な平面上の運動からなる自由度3の平面運動と3次元情報を復元するステップと、前記判定値がある一定値以上の場合は、カメラの回転運動と並進運動からなる自由度6の運動と3次元情報を復元するステップとを有することを特徴とする。
(8)上記(5)において、全方位画像に設定した特徴点座標系において、各フレーム画像における特徴点の画像座標値を入力するステップと、その画像座標値からある基準軸からの方位角(位相角)と、全方位カメラに使用されている投影方式に従って求められる光軸方向からの角(仰角)を求めるステップと、前記位相角と仰角を使って座標変換した座標値を前記観測座標値として求めるステップと、
前記観測座標値を行列要素とする行列を特異値分解するステップと、この特異値の成分から運動の自由度を表す判定値を算出するステップと、この判定値がある一定値未満の場合は、平面運動と見なして光軸周りの回転とその光軸に垂直な平面上の運動からなる自由度3の平面運動と3次元情報を復元するステップと、前記判定値がある一定値以上の場合は、カメラの回転運動と並進運動からなる自由度6の運動と3次元情報を復元するステップと、
を有することを特徴とする。
(プログラムの発明)
上記(5)〜(8)のいずれか1項に記載のカメラ運動と3次元情報の復元法における処理手順をコンピュータで実行可能に構成したことを特徴とする。
以上のとおり、本発明によれば、カメラを使って取得した時系列画像全般(移動手段を利用して撮影した車載画像、海上画像、空撮画像、屋内画像、魚眼カメラや全方位カメラ、または手動撮影した画像)から、カメラの運動(回転運動と並進運動)と対象物に関する物体形状を高精度に獲得、復元することが可能となる。
手動撮影には手振れがあり、車載カメラには走行中の振動があるため、本発明は、このようなカメラ振動においても雑音にロバストに、微小なカメラ姿勢の変動(三軸周り回転運動)を復元することができる。特に、図15でのカメラを車載した移動観測に本発明を応用した場合、GPSなどのリモートセンサを補間する精度の三軸方向の並進運動を正確に計測することが可能となる。
本発明で使用する計算は、大半が線形演算で構成されるため、コンピュータ言語での実装が容易である。
(実施形態1)
図1は請求項1等に関する基本構成図であり、図2は時系列画像データベース部などの記憶装置を必要としない、リアルタイムで処理する場合の処理構成図であり、図3は図1または図2における波線ブロック部分の処理フローである。
本実施形態を図1〜図3により説明する。本実施形態では、時系列画像を格納する時系列画像データベース部1、そのデータベース部1から画像系列を取り出し、全フレーム間の特徴点の画像座標値を観測し、カメラ運動と3次元情報を復元するための元になる行列データ(以下、漸近行列データ)を生成する漸近行列生成部2、漸近行列データから前記の特許文献の手法を利用して平面運動と3次元情報を復元する平面運動・3次元情報復元部3、光軸回転以外の回転運動と光軸並進運動を復元し、カメラ運動を平面運動へ漸近(安定化)させるために次の反復が必要かどうかの判定を行い、反復が必要な場合は漸近行列生成部2へ漸近行列データを生成するために必要な情報を渡す安定化処理部4から構成される。この構成において、時系列画像データベース部1には、ハードディスク、RAID装置、CD−ROMなどの記録媒体を利用する形態、または、ネットワークを介したリモートなデータ資源を利用する形態でもどちらでも構わない。また、図2の画像入力部1Aは時系列画像データベース部1に代えて、データ資源をリアルタイムで得る。
図14において、本発明で復元する対象の空間中の点Pj(Xj,Yj,Zj)と、カメラの運動、すなわち、ロール回転(ωi)、ピッチ回転(ψi)、ヨー回転(θi)、並びに、並進運動Ti(Txi,Tyi,Tzi)を説明する。図14ではカメラと対象物(被写体)との位置関係を表しており、運動の中心は視点としており、視点を原点としたカメラ座標系XYZ、原点Oとした世界座標系XwYwZwを設定する。説明の都合上、カメラ光軸をZ軸方向とし、光軸に垂直な平面をXY平面とする。この座標系において、カメラは、並進運動(Txi,Tyi,Tzi)で移動しながら、ロール回転(ωi)、ピッチ回転(ψi)、ヨー回転(θi)の回転をして点Pjを観測する。像が投影される投影中心(主点)の位置(視点位置Ti)はカメラ運動の中心であり、第iフレームでの並進運動Ti(Txi,Tyi,Tzi)の位置とする。対象物の点Pj(Xj,Yj,Zj)はカメラにより画像面において投影中心を原点とした画像座標値(xij,yij)へ投影されるとする。なお、初期フレームでの視点とOは一致しているとし、光軸はZw軸と平行関係にあり、θiはXとXw軸との成す角とするが、一般性を損なわない。
まず、図1又は図2の漸近行列生成部2において、対象物を撮影した時系列画像として時系列画像データベース部1からフレーム数Fの画像系列を取り出す。この取り出した画像系列において特徴点追跡を行う。特徴点は従来から用いられているような以下の手順により抽出する。初期画像(画像1)の領域において(1)各画素に対する2×2のヘッセ行列を求める。次に、(2)各点の3×3近傍領域において極大点かどうか判定し、極大点以外の点を削除する(non-maxima suppression)。さらに、(3)得られた各点のヘッセ行列の固有値σl,σs(σs≦σl)を求め、σsが所定の許容値σp以上となる点を抽出する。最後に、(4)抽出した点のσsの大きさの順にソートし、上位の点から順番にその点(pl)より上位の点(ph)が所定の画素数σd以内の距離に存在するかどうかを判定し、もし、存在する場合は下位の点plを削除する。さらに、抽出した特徴点(j=1,2,…,P)をKLT法(Kanade-Lucas-Tomasi)により画像i(i=2,…,F)にわたって追跡し、画像座標値(xij,yij)を観測する。このようにして得られた特徴の画像座標値を式(1)に示す配列に並べた2F×Pの行列データ(行列データ[A])を用意する。
Figure 2006172026
図3の観測座標値の入力(S1)から行列データ[A]を漸近行列データの生成(S2)へ渡す。漸近行列データの生成(S2)では、係数εij=1,δij=1,(ζi,ηi)=(0,0),Tzi=0と初期化し、式(2)に従って変換座標値(x'ij,y'ij)を得る。変換座標値(x'ij,y'ij)を行列要素とする2F×Pの式(1a)の漸近行列データ[B]を生成する。このとき、初期設定として、安定化モードを“回転モード”にしておく。
Figure 2006172026
Figure 2006172026
次に、図1または図2の平面運動・3次元情報復元部3に漸近行列データが与えられると、図3の特異値分解(S3)において式(3)に示す3つの行列[U],[W],[V]に行列分解する。
Figure 2006172026
ここで、[U]は2F×Pサイズの行列、[W]はP×Pサイズの対角行列、[V]はP×Pサイズの行列である。さらに、図3の雑音除去(S4)では、式(4)の第二項に示すように、ランク4以上の各行列の成分を削除する。
Figure 2006172026
この削除のときは、行列[U]を取り出し、この行列の要素において第4から第P列目までを削除し、残りの成分からなる行列を保持し、行列[W]を取り出し、この行列の要素において第4から第P行目並びに第4から第P列目までを削除し、残りの成分からなる行列を保持し、行列[V]を取り出し、この行列の要素において第4から第P行目までを削除し、残りの成分からなる行列をそれぞれ保持する。この雑音除去は、式(5)に示すようになる。
Figure 2006172026
次に、第4から第P行目並びに第4から第P列目までを削除した行列[W]の対角要素の平方をとった行列から、式(6)、(7)に示す行列[U’]と行列[V’]を得る。
Figure 2006172026
Figure 2006172026
図3の変換行列算出(S5)では、保持してある行列[U’]を取り出し、式(8)〜(10)で得られる値を行列要素にもつ式(11)の行列[D]を準備し、この行列[D]と式(12)に示す計算を行い、値a,b,c,d,e,fを求める。なお、式(12)の右辺の最後の行列は1の値を上から2F個、続けて0の値をF個並べた3F×1の列ベクトルである。値a,b,c,d,e,fを式(13)に示す要素に入れた行列[C]を用意し、この行列[C]を式(14)に示すように固有値分解する。ここで、固有値行列の平方と固有値行列から、式(15)の行列[C’]を生成し、この行列要素を成分にもつ行列[Q]を式(16)に従って算出する。
Figure 2006172026
Figure 2006172026
Figure 2006172026
Figure 2006172026
Figure 2006172026
Figure 2006172026
Figure 2006172026
Figure 2006172026
Figure 2006172026
次に、図3の平面運動復元(S6)では、前記の式(A3)の投影モデル式に基づいて、式(A3)右辺左側の行列を式(17)で得られる行列[M’]に、式(A3)右辺右側の行列を式(20)で得られる行列[S’]とする。この対応付けにより、式(17)の行列成分から光軸周りの回転(ヨー回転角)θiとXY並進運動を復元し、式(20)の行列要素からユークリッド空間での3次元情報(X,Y,Z)を復元する。求めた行列[Q]と、保持しておいた行列[U’]から、式(17)の行列演算により行列[M’]を計算する。行列[M’]から各フレーム(第iフレーム)の行列要素(mix,nix)または(miy,niy)を取り出し、式(18)を使って、ヨー回転θi,i=1,2,…,Fを復元する。また、行列[M’]から各フレーム(第iフレーム)の行列要素(Tiu,Tiv)を取り出す。この(Tiu,Tiv)から、式(19)を使って第iフレームにおけるユークリッド空間でのXY並進運動(Txi,Tyi),i=1,2,…,Fを計算する。
Figure 2006172026
Figure 2006172026
Figure 2006172026
一方、図3の3次元情報復元(S7)では、先に保持しておいた行列[V’]と、変換行列算出(S5)で得られた行列[Q]から、式(20)に示す行列演算を行い、行列[S’]を求める。次に、行列[S’]の要素に対して、式(21)に示す計算を行い、これを要素とする行列を[P]とする。行列を[P]の列ベクトルは、それぞれ第j番目の特徴点のユークリッド空間での3次元座標値(Xj,Yj,Zj)になっている。
Figure 2006172026
Figure 2006172026
次に、図1又は図2の安定化処理部4では、図3のチェック(S8)により、安定化モードが回転モードか光軸並進モードのどちらであるかをチェックし、異なる処理を行う。もし、安定化モードが回転モードのときは図3の回転運動安定化(S9)に、安定化モードが光軸並進モードのときは図3の光軸並進運動安定化(S10)に処理を進める。
回転運動安定化(S9)では、係数δijが既知としてピッチ回転とロール回転を求める。この処理では、画像系列から観測した画像座標値(xij,yij)と、平面運動・3次元情報復元部3で得られる再投影座標値(Uij,Vij)の間の誤差が、ピッチ回転とロール回転から発生する誤差であるとしている。これを数式で表現すると、
Figure 2006172026
となる。これは式(A3)左辺の行列要素で表現すると、
Figure 2006172026
となる。式(A8)左辺を式(A4),(A6)を使って展開すると、
Figure 2006172026
となる。行列[Ri],[Ai]は式(22),(22a)〜(22d),(23)である。したがって、式(A9)の関係から、ピッチ回転ψi、ロール回転ωiは、式(24)の計算で求められる。
Figure 2006172026
Figure 2006172026
Figure 2006172026
Figure 2006172026
Figure 2006172026
Figure 2006172026
Figure 2006172026
以上の計算についての安定化処理(S9)、(S10)の詳細な処理フローが図4および図5である。図4に示す回転運動安定化(S9)では、式(1)に示すデータ形式の行列データ[A]の各行列要素と、係数δij、並びに、上記で復元した平面運動・3次元情報復元部3による再投影座標値の算出(S22)と3次元情報復元(S23)から、前記の式(A7)に示す誤差(Δxij,Δyij)を計算する(S21)。さらに、式(22a)〜(22d)の値を計算し(S24)、これを要素とする式(22)の行列[Ri]を準備する(S25)。一方、誤差(Δxij,Δyij)を行列要素とする式(23)の行列[Ai]を準備し(S26)、式(24)の演算を行って、ロール回転ωi、ピッチ回転ψi、を復元する(S27)。これを全フレーム(i=1,2,…,F)にわたり求める。このとき、同時に、式(25)の計算により各フレームでの(ζi,ηi),i=1,2,…,Fを求め、以前の(ζi,ηi),i=1,2,…,Fを更新すると共に、式(A6)により求めたピッチ回転ψi、ロール回転ωiを代入して係数εijを更新する(S28)。
Figure 2006172026
図3に示す光軸並進運動安定化S10では、係数εij、並びに、光軸座標値(ζi,ηi)が既知として光軸並進運動Tziを求める。このとき、式(A3)左辺の行列要素は、
Figure 2006172026
Figure 2006172026
となる。式(A10)は座標値(u'ij,v'ij)の(1−Tzi/Zj)倍が再投影座標値(uij,vij)となる形式である。この関係を利用して光軸並進運動Tziを求める。そこで、式(A10)を、
Figure 2006172026
と整理し、全フレームi=1,2,…,F、並びに、全特徴点j=1,2,…,Pに対して行列展開すると、
Figure 2006172026
となる(ただし、Δwijは式(26)である)。したがって、式(A13)に示す連立方程式を求めると光軸並進運動を復元することができる。
図5に示す光軸並進運動安定化(S10)の詳細な処理フローでは、まず、観測座標値の入力から座標値(xij,yij)が与えられ、係数εijと光軸座標値(ζi,ηi)を使って式(A11)の座標値(u'ij,v'ij)を生成する。この座標値(u'ij,v'ij)と平面運動・3次元情報復元部3からの平面運動と3次元情報から求めた再投影座標値(uij,vij)から式(26)のΔwijを計算し(S31,S32)、これを行列要素とするF×Pの式(27)の行列[ΔW]を準備する(S33)。このとき、式(A13)左辺を見ると分かるようにランクは1である。それに対して、式(A13)右辺の行列[ΔW]はF×Pとなっている。そこで、式(28)に示すように特異値分解を行い、3つの行列、すなわち、F×Pの[Uw],P×Pの[Ww],P×Pの[Vw]に分解する(S34)。
Figure 2006172026
Figure 2006172026
Figure 2006172026
次いで、雑音除去(S35)では、ランク1以上の各行列の成分を削除する。この削除のときは、行列[Uw]を取り出し、この行列の要素において第2から第P列目までを削除し、残りの成分からなる行列を保持し(行列[U'w])、行列[Ww]を取り出し、この行列の要素において第2から第P行目並びに第2から第P列目までを削除し、残りの成分からなる行列を保持し(行列[W'w])、行列[Vw]を取り出し、この行列の要素において第2から第P行目までを削除し、残りの成分からなる行列をそれぞれ保持(行列[V'w])し、式(28a)に示す行列演算を行い、これを行列[ΔW]として保持する(S36)。さらに、3次元情報復元から特徴点のZ値の逆数からなる式(30)の行列[1/Z]を準備し(S37)、式(29)の計算を行い、光軸並進運動Tziを求める(S38)。ここで、式(A6)により求めた光軸並進運動を使って係数δijを更新しておく(S39)。
Figure 2006172026
Figure 2006172026
Figure 2006172026
以上、安定化モードが回転モードか光軸並進モードにより、上記の処理に振り分けて、ピッチ回転とロール回転、並びに、光軸並進運動を求める。
図3に戻って、この時点での係数εij、光軸座標値(ζi,ηi)、係数δijを使って、式(2)の計算により座標値(x'ij,y'ij)を得て、式(31)に示す漸近誤差ΔEを求める(S11)。この漸近誤差ΔEが前のΔEより減少している場合は、漸近行列データの生成に戻り、更新した係数εij、光軸座標値(ζi,ηi)、係数δijを使って得た式(2)の座標値(x’ij,y’ij)を新たな行列要素とする漸近行列[B]を得て、平面運動・3次元情報復元の処理を続ける(S12)。
Figure 2006172026
一方、この漸近誤差ΔEが前のΔEより増加した場合は、安定化モードを切り替える(S13,S14)。すなわち、回転モードから光軸並進モードへ、または、光軸並進モードから回転モードへ切り替えて、漸近行列データの生成へ処理を進める。なお、安定化モードの切替回数が最初から数えてN回を超えた時点で漸近誤差ΔEが収束したと判断して反復処理を停止し、その時点でのカメラ運動と3次元情報を出力して、処理を終了する。
以上、本実施形態により、画像系列における特徴点の時間的動きから、カメラ視点の運動、すなわち、三軸周りの回転運動と三軸方向の並進運動、並びに、物体形状を構成する3次元情報を復元することができる。
(実施形態2)
全方位カメラはロボットビジョンや移動観測において利用されており、図15に示すように車両の屋根に搭載し、光軸を天空方向に向けて設置される。図15は車両による移動観測のときの模式図であり、全方位カメラにより建物壁面などの市街地景観を撮像する。移動観測では車両振動により全方位カメラが変動しており、本実施形態は、このような車両振動において揺れた画像系列からカメラ運動と3次元情報を復元する。
図6は、請求項2等に関する基本構成図である。本実施形態ではカメラを全方位カメラとした場合の実施形態であり、実施形態1に対して、時系列画像データベース部1から取り出した画像において、特徴点観測部5により得た特徴点の画像座標値を座標変換部6で変換した座標値を実施形態1での特徴点の画像座標値とする点だけが異なるため、この部分だけについて説明する。
本実施形態は、時系列画像データベース部には、ハードディスク、RAID装置、CD−ROMなどの記録媒体を利用する、または、ネットワークを介したリモートなデータ資源を利用する形態でもどちらでも構わない。さらに、図7は、リアルタイムで処理する場合の処理構成図であり、本実施形態では必ずしも各データベース部1などの記憶装置を必要としない。
全方位カメラは市販のカメラと異なり広視野を撮像できるように設計されているため、全方位画像中の特徴点の画像座標値のままでは本実施形態を応用することができない。そこで、図16に示すように、特徴点を示す画像座標値を位相角ρijと仰角φijを利用する。空間中の点Pj(Xj,Yj,Zj)は、画像面において画像座標値(xij,yij)へ投影されるとする。式(32a)は焦点距離をfとした等距離投影と呼ばれる魚眼レンズでの光学的投影であり、図16の位相角ρijは、画像座標値(xij,yij)から、式(33)を使って得ることができる。ただし、図16は、魚眼レンズを取り付けたカメラで画像を撮像する例であり、Rはイメージサークルの半径であり、画像面での投影中心の画像座標値を原点としている。これ以外の全方位カメラとして、放物面ミラーで反射する投影の場合は式(32b)により仰角φijが得られ(hは放物面のxy平面での半径)、双曲線ミラーで反射する全方位カメラの場合では、式(32c)により仰角φijが得られる(b,cは双曲線パラメータ、fは焦点距離)。なお、これらの全方位カメラでは画像面とXY面が平行と考えることができるので、全般的な全方位カメラに対して式(33)により位相角ρijを得ることができる。
Figure 2006172026
Figure 2006172026
Figure 2006172026
Figure 2006172026
図6の特徴点観測部5において、特徴点の画像座標値から位相角と仰角を得ると、次に、座標変換部6において、
Figure 2006172026
なる座標変換を行い、座標値(pij,qij)を求める。
この座標変換の効果を図17、図18で説明する。図17は全方位カメラ(魚眼など)で移動観測したときに取得した画像の例である。この図のように全方位画像では建物の壁に位置する水平、垂直のエッジが、本来、水平と垂直のエッジが直線として投影されるべきところを、曲線として投影される。これに対して、式(A14)で座標変換すると、図18のように、水平と垂直のエッジを線分として得ることができる。この座標変換は全方位投影から透視投影への座標変換である。
座標変換部6では、式(A14)で得た(pij,qij)を(xij,yij)と見なし、この(xij,yij)を特徴点の画像座標値(観測座標値)として、図6の漸近行列生成部2にて扱う。
以上、本発明の実施形態により、全方位画像系列における特徴点の時間的動きから、カメラ視点の運動、すなわち、三軸周りの回転運動と三軸方向の並進運動、並びに、物体形状を構成する3次元情報を復元することができる。
(実施形態3)
図8は本実施形態の処理構成図であり、実施形態1に対して復元処理判定部7の処理が異なるため、以降ではこの部分の説明だけにする。この構成において、時系列画像データベース部1には、ハードディスク、RAID装置、CD−ROMなどの記録媒体を利用する形態、または、ネットワークを介したリモートなデータ資源を利用する形態でもどちらでも構わない。さらに、図9はリアルタイムで処理する場合の処理構成図であり、本実施形態では必ずしも時系列画像データベース部1などの記憶装置を必要としない。
図8の復元処理判定部では、時系列画像データベース部1から取り出した画像系列に対して特徴点の画像座標値を観測し、式(1)の形式の行列[A]として保持する。図10はその後の処理フローであり、この処理フローに従って説明する。行列[A]に対して、式(3)に示す3つの行列[U],[W],[V]に行列分解する。特異値行列[W]は対角要素であり、その各要素である特異値は昇降順の並びで、かつ、全て正の実数となっている。この特異値行列の中から式(4)に示す(3,3)の行列要素W33と(4,4)の行列要素W44の特異値を取り出す(S41,S42)。ランク検出では、式(34a)または式(34b)に示す計算を行い、判定量Ewを得る(S43)。この判定量Ewが許容値未満であるか、または、判定量Ewが許容値以上かを判定する(S44)。この許容値は特定の一定値であり、ユーザ(または作業者)が逐次、値を設定することもできる。もし、判定量Ewがある許容値未満の場合は、カメラ運動が平面運動であると判断して処理Aに進み(S45,S46)、判定量Ewがある許容値以上の場合は、カメラ運動が一般運動(平面運動以外)であると判断して処理Bに進む(S47,S48)。
Figure 2006172026
Figure 2006172026
処理Bとは実施形態1の処理であり、処理Bにより画像系列における特徴点の時間的動きから、カメラ視点の運動、すなわち、三軸周りの回転運動と三軸方向の並進運動(自由度6の運動)、並びに、物体形状を構成する3次元情報を復元する。一方、処理Aと判定した場合、図11にしたがって平面運動と3次元情報を復元する。この処理は、実施形態1の平面運動・3次元情報復元部の処理内容と同等であるため説明を省く。
以上の処理により、カメラ運動が平面運動の場合は、実施形態1の処理に回さずに、平面運動だけを計算するようにして、計算コストを大幅に低減させて、カメラ運動と3次元情報を復元することができる。
(実施形態4)
図12は請求項4等に関する基本構成図である。本実施形態では、実施形態2に対して、復元処理判定部7の処理のみが異なる。本実施形態は、時系列画像データベース部1には、ハードディスク、RAID装置、CD−ROMなどの記録媒体を利用する、または、ネットワークを介したリモートなデータ資源を利用する形態でもどちらでも構わない。さらに、図13はリアルタイムで処理する場合の処理構成図であり、本実施形態は必ずしも各データベース部1などの記憶装置を必要としない。
図12の復元処理判定部7では、時系列画像データベース部1から取り出した画像系列に対して特徴点の画像座標値を観測し、式(1)の形式の行列[A]として保持する。次に、各特徴点の画像座標値から位相角と仰角を全方位カメラの投影に応じて求め、式(A14)の座標変換を行い、座標値(pij,qij)を求める。この(pij,qij)を(xij,yij)と見なし、この(xij,yij)を特徴点の画像座標値(観測座標値)として、図12の復元処理判定部7にて扱う。復元処理判定部7の処理は実施形態3の処理と同じであるため説明を省く。
以上の処理により、全方位カメラ運動が平面運動の場合は、実施形態1の処理に回さずに、平面運動だけを計算するようにして、計算コストを大幅に低減させて、カメラ運動と3次元情報を復元することができる。
なお、本発明は、図3〜図5等に示した方法の一部又は全部の処理機能をプログラムとして構成してコンピュータを用いて実行可能にすることができる。また、このプログラムを記録した記録媒体を、ネットワークを通して提供することも可能である。
請求項1等に係る画像蓄積型の復元装置の基本構成図。 請求項1等に係るリアルタイム処理型の復元装置の基本構成図。 請求項1等に係る復元方法の処理フロー。 回転安定化の処理フロー。 光軸並進安定化の処理フロー。 請求項2等に係る画像蓄積型の復元装置の基本構成図。 請求項2等に係るリアルタイム処理型の復元装置の基本構成図。 請求項3等に係る画像蓄積型の復元装置の基本構成図。 請求項3等に係るリアルタイム処理型の復元装置の基本構成図。 復元処理判定部での処理フロー。 処理Aの処理フロー。 請求項4等に係る画像蓄積型の復元装置の基本構成図。 請求項4等に係るリアルタイム処理型の復元装置の基本構成図。 カメラと被写体の位置関係とカメラ座標系を示す図。 全方位カメラを車両の天井に固定して移動観測する場合の図。 図15における全方位カメラと被写体の位置関係とカメラ座標系を示す図。 全方位カメラが撮像した建物壁面のエッジラインを示す図。 図17のエッジを座標変換した結果を示す図。
符号の説明
1 時系列画像データベース部
1A 画像入力部
2 漸近行列生成部
3 平面運動・3次元情報復元部
4 安定化処理部
5 特徴点観測部
6 座標変換部
7 復元処理判定部

Claims (9)

  1. 時系列画像中において、対象とする画像に配置した特徴点に関する画像座標値の時間的変化量から、時系列におけるカメラ視点の運動、並びに、外界の物体形状を構成する3次元情報を復元する装置であって、
    時系列画像に設定した特徴点座標系において、各フレーム画像における特徴点の画像座標値(観測座標値)を入力し、その観測座標値にカメラの回転運動、光軸座標値、並進運動、並びに、3次元情報からなる係数をかけた座標値を要素とする漸近行列データを生成する漸近行列生成手段と、
    前記漸近行列データを特異値分解し、雑音除去を行って運動情報を表す行列データと3次元情報を表す行列データを得て、その運動情報において、運動を規定するために設定した条件を満足する変換行列を求め、運動情報を表す行列データに前記変換行列を作用させてカメラ視点に関する光軸周りの回転運動と光軸と垂直な平面上の並進運動(これらの成分からなる自由度3の平面運動)を復元し、並びに、3次元情報を表す行列データに前記変換行列の逆行列を作用させて物体形状を構成する3次元情報を復元する平面運動・3次元情報復元手段と、
    前記平面運動・3次元情報復元手段で得た平面運動と3次元情報から算出する再投影誤差と、前記漸近行列生成手段で得た観測座標値に、係数εと光軸座標値で変換した座標値を行列要素とする行列データを求め、その行列データを特異値分解して雑音を除去した行列データと、前記平面運動・3次元情報復元手段で得た各特徴点のZ座標値(Z方向を鉛直方向にしたときの特徴点位置の高さ)を要素とする行列から、カメラ視点の光軸方向の並進運動を復元し、その復元した光軸並進運動により係数δを更新する光軸運動復元手段と、
    前記漸近行列生成手段で得た観測座標値と、前記平面運動・3次元情報復元手段で得た平面運動と3次元情報から得る再投影誤差に係数δで変換した座標値の間の誤差を求め、その誤差を行列要素とする行列データと、前記平面運動・3次元情報復元手段で得た平面運動、3次元情報、並びに、前記光軸運動復元手段で得た光軸並進運動から、光軸以外の互いに直交する軸周りの回転運動を求め、その復元した回転運動により係数εと光軸座標値を更新する回転運動復元手段と、
    前記漸近行列生成手段で得た観測座標値を前記回転運動復元手段で更新された変換係数(係数ε)と光軸座標値、並びに、前記光軸運動復元手段で更新された変換係数(係数δ)を使って変換した座標値と、前記平面運動・3次元情報復元手段で得た平面運動と3次元情報から各フレーム画像に対する特徴点の再投影座標値との間で平面運動への漸近値を表す漸近誤差を求め、この漸近誤差の増減により前記光軸並進運動復元手段による処理と前記回転運動復元手段における処理を切り替えて該漸近誤差を減少(カメラ運動を平面運動へ漸近)させる処理を繰り返す安定化処理手段と、
    を有することを特徴とするカメラ運動と3次元情報の復元装置。
  2. 請求項1において、
    全方位画像に設定した特徴点座標系において、各フレーム画像における特徴点の画像座標値を入力する手段と、その画像座標値からある基準軸からの方位角(位相角)と、全方位カメラに使用されている投影方式に従って求められる光軸方向からの角(仰角)を求める手段と、前記位相角と仰角を使って座標変換した座標値を前記観測座標値として求める手段と、
    を有することを特徴とするカメラ運動と3次元情報の復元装置。
  3. 請求項1において、
    時系列画像に設定した特徴点座標系において、各フレーム画像における特徴点の画像座標値を入力する手段と、その観測座標値を行列要素とする行列を特異値分解する手段と、この特異値の成分から運動の自由度を表す判定値を算出する手段と、この判定値がある一定値未満の場合は、平面運動と見なして光軸周りの回転とその光軸に垂直な平面上の運動からなる自由度3の平面運動と3次元情報を復元する手段と、前記判定値がある一定値以上の場合は、カメラの回転運動と並進運動からなる自由度6の運動と3次元情報を復元する手段と、
    を有することを特徴とするカメラ運動と3次元情報の復元装置。
  4. 請求項1において、
    全方位画像に設定した特徴点座標系において、各フレーム画像における特徴点の画像座標値を入力する手段と、その画像座標値からある基準軸からの方位角(位相角)と、全方位カメラに使用されている投影方式に従って求められる光軸方向からの角(仰角)を求める手段と、前記位相角と仰角を使って座標変換した座標値を前記観測座標値として求める手段と、
    前記観測座標値を行列要素とする行列を特異値分解する手段と、この特異値の成分から運動の自由度を表す判定値を算出する手段と、この判定値がある一定値未満の場合は、平面運動と見なして光軸周りの回転とその光軸に垂直な平面上の運動からなる自由度3の平面運動と3次元情報を復元する手段と、前記判定値がある一定値以上の場合は、カメラの回転運動と並進運動からなる自由度6の運動と3次元情報を復元する手段と、
    を有することを特徴とするカメラ運動と3次元情報の復元装置。
  5. 時系列画像中において、対象とする画像に配置した特徴点に関する画像座標値の時間的変化量から、時系列におけるカメラ視点の運動、並びに、外界の物体形状を構成する3次元情報を復元する方法であって、
    時系列画像に設定した特徴点座標系において、各フレーム画像における特徴点の画像座標値(観測座標値)を入力し、その観測座標値にカメラの回転運動、光軸座標値、並進運動、並びに、3次元情報からなる係数をかけた座標値を要素とする漸近行列データを生成する漸近行列生成ステップと、
    前記漸近行列データを特異値分解し、雑音除去を行って運動情報を表す行列データと3次元情報を表す行列データを得て、その運動情報において、運動を規定するために設定した条件を満足する変換行列を求め、運動情報を表す行列データに前記変換行列を作用させてカメラ視点に関する光軸周りの回転運動と光軸と垂直な平面上の並進運動(これらの成分からなる自由度3の平面運動)を復元し、並びに、3次元情報を表す行列データに前記変換行列の逆行列を作用させて物体形状を構成する3次元情報を復元する平面運動・3次元情報復元ステップと、
    前記平面運動・3次元情報復元ステップで得た平面運動と3次元情報から算出する再投影誤差と、前記漸近行列生成ステップで得た観測座標値に、係数εと光軸座標値で変換した座標値を行列要素とする行列データを求め、その行列データを特異値分解して雑音を除去した行列データと、前記平面運動・3次元情報復元ステップで得た各特徴点のZ座標値(Z方向を鉛直方向にしたときの特徴点位置の高さ)を要素とする行列から、カメラ視点の光軸方向の並進運動を復元し、その復元した光軸並進運動により係数δを更新する光軸運動復元ステップと、
    前記漸近行列生成ステップで得た観測座標値と、前記平面運動・3次元情報復元ステップで得た平面運動と3次元情報から得る再投影誤差に係数δで変換した座標値の間の誤差を求め、その誤差を行列要素とする行列データと、前記平面運動・3次元情報復元ステップで得た平面運動、3次元情報、並びに、前記光軸運動復元ステップで得た光軸並進運動から、光軸以外の互いに直交する軸周りの回転運動を求め、その復元した回転運動により係数εと光軸座標値を更新する回転運動復元ステップと、
    前記漸近行列生成ステップで得た観測座標値を前記回転運動復元ステップで更新された変換係数(係数ε)と光軸座標値、並びに、前記光軸運動復元ステップで更新された変換係数(係数δ)を使って変換した座標値と、前記平面運動・3次元情報復元ステップで得た平面運動と3次元情報から各フレーム画像に対する特徴点の再投影座標値との間で平面運動への漸近値を表す漸近誤差を求め、この漸近誤差の増減により前記光軸並進運動復元ステップによる処理と前記回転運動復元ステップにおける処理を切り替えて該漸近誤差を減少(カメラ運動を平面運動へ漸近)させる処理を繰り返す安定化処理ステップと、
    を有することを特徴とするカメラ運動と3次元情報の復元方法。
  6. 請求項5において、
    全方位画像に設定した特徴点座標系において、各フレーム画像における特徴点の画像座標値を入力するステップと、その画像座標値からある基準軸からの方位角(位相角)と、全方位カメラに使用されている投影方式に従って求められる光軸方向からの角(仰角)を求めるステップと、前記位相角と仰角を使って座標変換した座標値を前記観測座標値として求めるステップと、
    を有することを特徴とするカメラ運動と3次元情報の復元方法。
  7. 請求項5において、
    時系列画像に設定した特徴点座標系において、各フレーム画像における特徴点の画像座標値を入力するステップと、その観測座標値を行列要素とする行列を特異値分解するステップと、この特異値の成分から運動の自由度を表す判定値を算出するステップと、この判定値がある一定値未満の場合は、平面運動と見なして光軸周りの回転とその光軸に垂直な平面上の運動からなる自由度3の平面運動と3次元情報を復元するステップと、前記判定値がある一定値以上の場合は、カメラの回転運動と並進運動からなる自由度6の運動と3次元情報を復元するステップと、
    を有することを特徴とするカメラ運動と3次元情報の復元方法。
  8. 請求項5において、
    全方位画像に設定した特徴点座標系において、各フレーム画像における特徴点の画像座標値を入力するステップと、その画像座標値からある基準軸からの方位角(位相角)と、全方位カメラに使用されている投影方式に従って求められる光軸方向からの角(仰角)を求めるステップと、前記位相角と仰角を使って座標変換した座標値を前記観測座標値として求めるステップと、
    前記観測座標値を行列要素とする行列を特異値分解するステップと、この特異値の成分から運動の自由度を表す判定値を算出するステップと、この判定値がある一定値未満の場合は、平面運動と見なして光軸周りの回転とその光軸に垂直な平面上の運動からなる自由度3の平面運動と3次元情報を復元するステップと、前記判定値がある一定値以上の場合は、カメラの回転運動と並進運動からなる自由度6の運動と3次元情報を復元するステップと、
    を有することを特徴とするカメラ運動と3次元情報の復元方法。
  9. 請求項5〜8のいずれか1項に記載のカメラ運動と3次元情報の復元法における処理手順をコンピュータで実行可能に構成したことを特徴とするプログラム。
JP2004362152A 2004-12-15 2004-12-15 カメラ運動と3次元情報の復元装置、復元方法、およびプログラム Pending JP2006172026A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2004362152A JP2006172026A (ja) 2004-12-15 2004-12-15 カメラ運動と3次元情報の復元装置、復元方法、およびプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2004362152A JP2006172026A (ja) 2004-12-15 2004-12-15 カメラ運動と3次元情報の復元装置、復元方法、およびプログラム

Publications (1)

Publication Number Publication Date
JP2006172026A true JP2006172026A (ja) 2006-06-29

Family

ID=36672727

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2004362152A Pending JP2006172026A (ja) 2004-12-15 2004-12-15 カメラ運動と3次元情報の復元装置、復元方法、およびプログラム

Country Status (1)

Country Link
JP (1) JP2006172026A (ja)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2008032376A1 (fr) * 2006-09-13 2008-03-20 Pioneer Corporation Dispositif et procédé de mesure de distance, et programme informatique
US8107735B2 (en) 2007-04-10 2012-01-31 Denso Corporation Three dimensional shape reconstitution device and estimation device
CN104016016A (zh) * 2014-05-28 2014-09-03 昆山市富众网络科技有限公司 一种螃蟹用运送装置
CN112082483A (zh) * 2020-09-09 2020-12-15 易思维(杭州)科技有限公司 仅有棱边特征物体的定位方法、应用及精度评价方法

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2008032376A1 (fr) * 2006-09-13 2008-03-20 Pioneer Corporation Dispositif et procédé de mesure de distance, et programme informatique
JPWO2008032376A1 (ja) * 2006-09-13 2010-01-21 パイオニア株式会社 距離測定装置及び方法、並びにコンピュータプログラム
JP4978938B2 (ja) * 2006-09-13 2012-07-18 パイオニア株式会社 距離測定装置及び方法、並びにコンピュータプログラム
US8331625B2 (en) 2006-09-13 2012-12-11 Pioneer Corporation Distance measuring device and method, and computer program
US8107735B2 (en) 2007-04-10 2012-01-31 Denso Corporation Three dimensional shape reconstitution device and estimation device
CN104016016A (zh) * 2014-05-28 2014-09-03 昆山市富众网络科技有限公司 一种螃蟹用运送装置
CN112082483A (zh) * 2020-09-09 2020-12-15 易思维(杭州)科技有限公司 仅有棱边特征物体的定位方法、应用及精度评价方法

Similar Documents

Publication Publication Date Title
US10594941B2 (en) Method and device of image processing and camera
JP6768156B2 (ja) 仮想的に拡張された視覚的同時位置特定及びマッピングのシステム及び方法
EP3228982B1 (en) Surveying system
US7518636B2 (en) Image processing apparatus and image processing method
EP1331605B1 (en) Omnidirectional visual system and method
GB2506411A (en) Determination of position from images and associated camera positions
JPH11252440A (ja) 画像を整列させて目標点にカメラを固定する方法及び装置
KR20110070660A (ko) 3차원 도시 모델링 장치 및 방법
JP2007323615A (ja) 画像処理装置及びその処理方法
CN113345032B (zh) 一种基于广角相机大畸变图的初始化建图方法及系统
CN109900274B (zh) 一种图像匹配方法及系统
US8509522B2 (en) Camera translation using rotation from device
KR102389762B1 (ko) 디지털 트윈 연동 증강현실 카메라를 통한 공간 형성 및 인식 시스템 및 그 방법
JP4825971B2 (ja) 距離算出装置、距離算出方法、構造解析装置及び構造解析方法。
CN111581322B (zh) 视频中兴趣区域在地图窗口内显示的方法和装置及设备
JP2006172026A (ja) カメラ運動と3次元情報の復元装置、復元方法、およびプログラム
JP2004020398A (ja) 空間情報獲得方法、空間情報獲得装置、空間情報獲得プログラム、及びそれを記録した記録媒体
CN115601438A (zh) 外参标定方法、装置以及自主移动设备
JP2005063129A (ja) 時系列画像からのテクスチャ画像獲得方法,テクスチャ画像獲得装置,テクスチャ画像獲得プログラムおよびそのプログラムを記録した記録媒体
JP2007034964A (ja) カメラ視点運動並びに3次元情報の復元及びレンズ歪パラメータの推定方法、装置、カメラ視点運動並びに3次元情報の復元及びレンズ歪パラメータの推定プログラム
JP2006106930A (ja) パラメータ推定装置、パラメータ推定方法、及び、パラメータ推定プログラム
JP3691401B2 (ja) 撮影対象物表面の自動獲得・復元方法及び装置
JP3901552B2 (ja) 全方位カメラ視点運動並びに物体形状復元方法、装置、全方位カメラ視点運動並びに物体形状復元プログラム、及び該プログラムを記録した記録媒体
JP2006106929A (ja) パラメータ推定装置、パラメータ推定方法、及び、パラメータ推定プログラム
JP4027294B2 (ja) 移動体検出装置、移動体検出方法及び移動体検出プログラム