JP6541070B2 - Three-dimensional information restoration apparatus and three-dimensional information restoration method - Google Patents
Three-dimensional information restoration apparatus and three-dimensional information restoration method Download PDFInfo
- Publication number
- JP6541070B2 JP6541070B2 JP2015225110A JP2015225110A JP6541070B2 JP 6541070 B2 JP6541070 B2 JP 6541070B2 JP 2015225110 A JP2015225110 A JP 2015225110A JP 2015225110 A JP2015225110 A JP 2015225110A JP 6541070 B2 JP6541070 B2 JP 6541070B2
- Authority
- JP
- Japan
- Prior art keywords
- image
- corresponding point
- information
- point pair
- dimensional
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Landscapes
- Length Measuring Devices By Optical Means (AREA)
- Measurement Of Optical Distance (AREA)
- Image Analysis (AREA)
Description
本開示は、3次元情報復元装置及び3次元情報復元方法に関する。 The present disclosure relates to a three-dimensional information restoration apparatus and a three-dimensional information restoration method.
従来、左右の撮像部で同じ被写体を撮像するように、1つの筐体に2つの撮像部が固定されたステレオカメラが知られている。ステレオカメラは、被写体を異なる複数の方向から撮像し、平面方向の情報及び奥行き方向の情報(3次元情報)を記録する。 Conventionally, a stereo camera is known in which two imaging units are fixed to one case so that the same subject is imaged by the left and right imaging units. The stereo camera captures an image of a subject from a plurality of different directions, and records information in the plane direction and information (three-dimensional information) in the depth direction.
3次元情報を復元する装置として、例えば、画像入力部と、対応点検出部と、基本行列計算部と、平行移動計算部と、回転計算部と、距離計算部と、を備える3次元情報復元装置が知られている(例えば、特許文献1参照)。 For example, three-dimensional information restoration including an image input unit, a corresponding point detection unit, a basic matrix calculation unit, a translation calculation unit, a rotation calculation unit, and a distance calculation unit as an apparatus for restoring three-dimensional information An apparatus is known (see, for example, Patent Document 1).
この3次元情報復元装置では、画像入力部は、3次元剛体を捉えた2画像を入力する。対応点検出部は、2画像間の対応点を検出する。基本行列計算部は、2画像間の3次元回転行列及び3次元平行移動ベクトルから基本行列を計算する。平行移動計算部は、3次元平行移動ベクトルを計算する。回転計算部は、3次元回転行列を計算する。距離計算部は、3次元空間におけるカメラと対応点との距離を計算する。 In this three-dimensional information restoration apparatus, the image input unit inputs two images capturing a three-dimensional rigid body. The corresponding point detection unit detects a corresponding point between two images. The basic matrix calculation unit calculates a basic matrix from a three-dimensional rotation matrix and a three-dimensional translation vector between two images. The translation calculation unit calculates a three-dimensional translation vector. The rotation calculator calculates a three-dimensional rotation matrix. The distance calculation unit calculates the distance between the camera and the corresponding point in the three-dimensional space.
特許文献1に記載された3次元情報復元装置では、2つの撮像装置を別々に設置してステレオカメラシステムを形成する場合、2つの撮像装置によりそれぞれ撮像された左右の画像から対象点の3次元座標を正しく復元できないことがある。
In the three-dimensional information restoration device described in
本開示は、上記事情に鑑みてなされたものであり、2つの撮像画像から復元される3次元座標の復元精度を向上できる3次元情報復元装置及び3次元情報復元方法を提供する。 The present disclosure has been made in view of the above circumstances, and provides a three-dimensional information restoration apparatus and a three-dimensional information restoration method capable of improving the restoration accuracy of three-dimensional coordinates restored from two captured images.
本開示の3次元情報復元装置は、ポートと入力デバイスとプロセッサとを備える。ポートは、第1の撮像装置により撮像された第1の画像と、第2の撮像装置により撮像された
第2の画像と、を取得する。プロセッサは、第1の画像における第1の特徴点と、第2の画像における第2の特徴点と、が対応する第1の対応点ペアを複数検出し、複数の第1の対応点ペアに基づいて、第1の特徴点が逆射影された3次元座標を復元する。入力デバイスは、第1の画像及び第2の画像における任意の対応点ペアを第2の対応点ペアとして、第2の対応点ペアの第1の画像及び第2の画像それぞれでの位置を示す位置情報と、第1の撮像装置から第2の対応点ペアまでの距離を示す距離情報と、を入力する。プロセッサは、入力された第2の対応点ペアの位置情報に基づいて、第2の対応点ペアの3次元座標を復元し、復元された第2の対応点ペアの3次元座標と、入力された距離情報と、に基づいて、3次元座標の精度を評価し、精度が所定値以下である場合、第1の対応点ペアを変更して3次元座標を導出するためのパラメータを再計算し、再計算されたパラメータに基づいて、入力された第2の対応点ペアの3次元座標の復元の再計算を行う。
The three-dimensional information restoration apparatus of the present disclosure comprises a port, an input device, and a processor. The port acquires a first image captured by the first imaging device and a second image captured by the second imaging device. The processor detects a plurality of first corresponding point pairs in which the first feature point in the first image and the second feature point in the second image correspond to a plurality of first corresponding point pairs. Based on the three-dimensional coordinates in which the first feature point is back-projected. The input device indicates the position in the first image and the second image of the second corresponding point pair, with any corresponding point pair in the first image and the second image as the second corresponding point pair. Position information and distance information indicating the distance from the first imaging device to the second corresponding point pair are input. The processor restores the three-dimensional coordinates of the second corresponding point pair based on the input position information of the second corresponding point pair , and inputs the three-dimensional coordinates of the restored second corresponding point pair. The accuracy of the three-dimensional coordinates is evaluated based on the distance information, and when the accuracy is less than a predetermined value, the first corresponding point pair is changed to recalculate the parameters for deriving the three-dimensional coordinates. , Recalculate restoration of three-dimensional coordinates of the input second corresponding point pair based on the recalculated parameter.
本開示によれば、2つの撮像画像から復元される3次元座標の復元精度を向上できる According to the present disclosure, the restoration accuracy of three-dimensional coordinates restored from two captured images can be improved.
以下、適宜図面を参照しながら、実施形態を詳細に説明する。但し、必要以上に詳細な説明は省略する場合がある。例えば、既によく知られた事項の詳細説明や実質的に同一の構成に対する重複説明を省略する場合がある。これは、以下の説明が不必要に冗長になることを避け、当業者の理解を容易にするためである。尚、添付図面及び以下の説明は、当業者が本開示を十分に理解するために提供されるものであり、これらにより特許請求の範囲に記載の主題を限定することは意図されていない。 Hereinafter, embodiments will be described in detail with reference to the drawings as appropriate. However, the detailed description may be omitted if necessary. For example, detailed description of already well-known matters and redundant description of substantially the same configuration may be omitted. This is to avoid unnecessary redundancy in the following description and to facilitate understanding by those skilled in the art. It is to be understood that the attached drawings and the following description are provided to enable those skilled in the art to fully understand the present disclosure, and they are not intended to limit the claimed subject matter.
(第1の実施形態)
[構成等]
図1は第1の実施形態におけるステレオカメラシステム5の概略構成例を示す模式図である。ステレオカメラシステム5は、例えば、第1カメラ10、第2カメラ11、及びPC(Personal Computer)20を備える。第1カメラ10及び第2カメラ11は、例えば、それぞれケーブル18A、18Bを介してPC20と接続される。第1カメラ10と第2カメラ11とは、例えば、ケーブル18Cを介して接続される。
First Embodiment
[Configuration etc.]
FIG. 1 is a schematic view showing a schematic configuration example of a
ステレオカメラシステム5は、3次元情報復元システムの一例である。PC20は、3次元情報復元装置の一例である。第1カメラ10及び第2カメラ11は、撮像装置の一例である。
The
第1カメラ10及び第2カメラ11は、図示しないが、例えば、被写体を含む画像を撮像するイメージセンサ、及び、撮像された画像の画像データをPC20に送信する出力デバイス(例えば通信デバイス)を備える。撮像装置としては、例えば、監視カメラ、車載カメラ、産業用カメラ、医療用カメラ、民生用カメラが挙げられる。
Although not illustrated, the
第1カメラ10は、例えば、PC20からの画像取得要求に応じて、被写体を含む所定のシーンの第1画像(第1カメラ画像、例えば左側の画像)を撮像し、撮像された第1画像の画像データをPC20に転送する。
For example, in response to an image acquisition request from the PC 20, the
第2カメラ11は、例えば、上記被写体を含む所定のシーンの第2画像(第2カメラ画像、例えば右側の画像)を、PC20からの画像取得要求及び第1カメラ10からの同期信号に従って撮像し、撮像された第2画像の画像データをPC20に転送する。つまり、第2カメラ11は、第1カメラ10とは異なる方向から同じシーンに含まれる同じ被写体を撮像する。
The
第1カメラ10及び第2カメラ11は、それぞれ第1の筐体13及び第2の筐体14を有し、例えば、天井、壁、その他の位置に固定される固定カメラである。また、第1カメラ10及び第2カメラ11は、パン、チルト及びズームが可能なPTZカメラである。つまり、第1カメラ10及び第2カメラ11は、パン、チルト及びズームの少なくとも1つを動作可能なカメラであってもよいし、パン方向、チルト方向及びズーム倍率が固定された固定カメラであってもよい。
The
また、第1カメラ10及び第2カメラ11では、焦点距離、光軸座標、及び歪補正係数が既知である。第1カメラ10及び第2カメラ11は、撮像画像に対し、例えば歪補正係数に基づいて歪補正を施した画像を出力可能である。従って、第1カメラ10及び第2カメラ11で撮像された画像には、歪補正済みの画像が含まれてもよい。尚、焦点距離、光軸座標及び歪補正係数は、固定値でなく、可変値として変更されてもよい。
In the
PC20は、第1カメラ10及び第2カメラ11からそれぞれケーブル18A、18Bを介して画像データを受信し、後述する各種画像処理(例えば、特徴点抽出、対応点抽出、カメラパラメータ推定、3次元座標計算、3次元座標計算の精度評価)を行う。
The PC 20 receives image data from the
図2は、ステレオカメラシステム5におけるPC20の構成例を示すブロック図である。PC20は、プロセッサ30、入力デバイス26、メモリ27、ポート28及びディスプレイ31を有する。
FIG. 2 is a block diagram showing a configuration example of the
入力デバイス26は、ユーザによる対応点の指定及び奥行き情報(第1カメラ10から指定された対応点までの距離)を入力する。入力デバイス26は、マウス、キーボード等を含んで構成される。入力デバイス26を介して入力された奥行き情報は、メモリ27に記憶され、精度評価部25に入力される。
The
メモリ27は、各種データ、情報、プログラムを保持する。メモリ27は、例えば、指定された対応点(以下、指定対応点ともいう)の座標、指定対応点までの距離情報、左右の指定対応点の周辺画像、対応点指定時の左右のカメラ画像(第1画像,第2画像)を記憶する。尚、対応点は、左右のカメラ画像において対応してペアで存在するので、対応点ペアとも言える。また、指定対応点は、左右のカメラ画像において対応してペアで指定されるので、指定対応点ペアとも言える。
The
メモリ27は、例えば、RAM(Random Access Memory)やROM(Read Only Memory)等のメモリや、HDD(Hard Disk Drive)やSSD(Solid State Drive)等のストレージを含んで構成される。
The
ポート28は、第1カメラ10及び第2カメラ11と通信可能に接続され、第1カメラ10及び第2カメラ11に対して画像取得要求を送信し、また、第1カメラ10から送信される第1画像の画像データ、及び第2カメラ11から送信される第2画像の画像データを受信する。ポート28は、例えば、外部装置と通信するための通信ポートや、外部装置を接続するための外部装置接続ポート、を含む。
The
ディスプレイ31は、第1カメラ10で撮像される第1画像及び第2カメラ11で撮像される第2画像を表示し、これらの画像に重畳して対応点やエラーメッセージ、ガイダンス等を表示し、また、3次元復元画像を表示する。ディスプレイ31は、液晶表示器等の表示デバイスを含んで構成される。
The
なお、入力デバイス26及びディスプレイ31は、別体の装置として構成されてもよいし、これらが一体化されたタッチパネルで構成されてもよい。
The
プロセッサ30は、メモリ27に保持されたプログラムを実行することで、特徴点抽出部21、対応点検出部22、カメラパラメータ推定部23、3次元座標計算部24、及び精度評価部25の各機能を実現する。
The
プロセッサ30は、例えば、CPU(Central Processing Unit)、DSP(Digital Signal Processor)、又はGPU(Graphical Processing Unit)を含んで構成される。
The
特徴点抽出部21は、ポート28から入力される第1カメラ10により撮像された第1画像、及び第2カメラ11により撮像された第2画像を順次取得し、解析する。
The feature
第1カメラ10は、例えば、被写体に対し、左カメラ画像を撮像する、図1の左側に配置されたカメラである。第2カメラ11は、例えば、被写体に対し、右カメラ画像を撮像する、図1の右側に配置されたカメラである。
The
特徴点抽出部21は、画像取得部としての機能を有し、取得した左カメラ画像及び右カメラ画像に対し、特徴点(例えばエッジが強い領域にある点)を順次検出する。特徴点の検出には、例えば、画像の拡大、縮小又は回転に対して不変な局所特徴点を抽出するアルゴリズムが用いられる。このアルゴリズムは、例えば、SIFT(Scale−Invariant Feature Transform)、SURF(Speed−Up robust Features)、を含む。
The feature
図3(A),(B),(C)は、3次元座標を導出するためのパラメータの一例を説明するための模式図である。この3次元座標は、第1カメラ10の位置を原点(0,0,0)とした場合の3次元空間における座標を示す。この3次元座標は、第1画像又は第2画像に含まれる所定の点が逆射影(3次元復元)された対象点41の座標を示す。3次元座標を導出するためのパラメータ(単にパラメータともいう)は、例えば、特徴点、対応点ペア、カメラの位置及び姿勢、を含む。
FIGS. 3A, 3B, and 3C are schematic diagrams for explaining an example of parameters for deriving three-dimensional coordinates. The three-dimensional coordinates indicate coordinates in a three-dimensional space when the position of the
特徴点抽出部21は、例えば、図3(A)に示すように、第1画像GZ1から特徴点a1〜a7を検出し、第2画像GZ2から特徴点b1〜b7を検出する。特徴点a1〜a7を特に区別する必要が無い場合、単に特徴点aと称する。同様に、特徴点b1〜b7を特に区別する必要が無い場合、単に特徴点bと称する。特徴点の数は、例えばカメラの位置や姿勢を推定する場合に考慮される。特徴点の数が多い程、第1カメラ10に対する第2カメラ11の位置や姿勢を推定する推定精度が高まる。
The feature
対応点検出部22は、例えば、図3(B)に示すように、第1画像GZ1及び第2画像GZ2に含まれる類似度の高い特徴点同士を対応点ペア(対応点の一例)として順次検出し、対応点ペア情報(画像座標ペア情報)を出力する。
For example, as illustrated in FIG. 3B, the corresponding
対応点ペア情報は、例えば、対応点となる第1画像GZ1における特徴点と第2画像GZ2における特徴点とを、対応づけ(ペアリング)した情報を含む。類似度が高いとは、例えば、対応点に含まれる第1画像GZ1における特徴点、第2画像GZ2における特徴点において、窓の角度が類似しており、窓の角度の差異が所定角度未満であることを含む。 The corresponding point pair information includes, for example, information in which a feature point in the first image GZ1 as a corresponding point and a feature point in the second image GZ2 are associated (paired). If the similarity is high, for example, the window angles are similar at the feature point in the first image GZ1 and the feature point in the second image GZ2 included in the corresponding points, and the window angle difference is less than a predetermined angle Including a certain thing.
対応点検出部22は、例えば、公知の技術(例えば特許文献1に記載された技術)により、対応点を検出する。
The corresponding
図3(B)では、第1画像GZ1に含まれる特徴点a1と、第2画像GZ2に含まれる特徴点b1と、が対応点として検出され、対応点ペア情報が出力される。また、第1画像GZ1に含まれる特徴点a2と、第2画像GZ2に含まれる特徴点b2と、が対応点として検出され、対応点ペア情報として出力される。同様に、特徴点a3〜a7と特徴点b3〜b7とが各対応点として検出され、各対応点ペア情報が出力される。 In FIG. 3B, the feature point a1 included in the first image GZ1 and the feature point b1 included in the second image GZ2 are detected as corresponding points, and corresponding point pair information is output. Further, the feature point a2 included in the first image GZ1 and the feature point b2 included in the second image GZ2 are detected as corresponding points, and are output as corresponding point pair information. Similarly, the feature points a3 to a7 and the feature points b3 to b7 are detected as the corresponding points, and the corresponding point pair information is output.
これらの対応点ペア情報は、図3(B)では、特徴点a1〜a7と特徴点b1〜b7とをそれぞれを結ぶ線(対応線)c1〜c7で対応付けられる。対応点ペアの数は、例えばカメラの位置や姿勢を推定する場合に考慮される。対応点ペアの数が多い程、第1カメラ10に対する第2カメラ11の位置や姿勢を推定する推定精度が高まる。
The corresponding point pair information is associated in FIG. 3B with lines (corresponding lines) c1 to c7 connecting the feature points a1 to a7 and the feature points b1 to b7, respectively. The number of corresponding point pairs is taken into account, for example, when estimating the position and orientation of the camera. As the number of corresponding point pairs increases, the estimation accuracy of estimating the position and orientation of the
カメラパラメータ推定部23は、図3(C)に示すように、例えば、対応点ペア情報、第1カメラ10の焦点距離、第2カメラ11の焦点距離、第1カメラ10の光軸座標、及び第2カメラ11の光軸座標に基づいて、第1カメラ10に対する第2カメラ11の位置及び姿勢を順次推定する。
As shown in FIG. 3C, the camera
光軸座標は、撮像画像におけるレンズの中心に対応する座標を示す。第1カメラ10に対する第2カメラ11の位置は、例えば並進ベクトルpにより示される。第1カメラ10に対する第2カメラ11の姿勢は、例えば回転行列Rにより示される。
The optical axis coordinates indicate coordinates corresponding to the center of the lens in the captured image. The position of the
カメラパラメータ推定部23は、公知の技術(例えば特許文献1に記載された技術)により、カメラパラメータ(例えば並進ベクトルp、回転行列R)を推定する。並進ベクトルpは、特許文献1に記載された3次元平行移動ベクトルに相当する。回転行列Rは、特許文献1に記載された3次元回転行列に相当する。並進ベクトルpは、例えば(式1)で表される。
The camera
回転行列Rは、例えば、(式2)で表される。
R=R(θz)・R(θy)・R(θx) ・・・(式2)
θz,θy,θxは、それぞれZ軸、Y軸、X軸周りの回転角(ラジアン)を表し、各軸の回転角の成分(回転成分)を表す。R(θz),R(θy),R(θx)は、それぞれZ軸、Y軸、X軸の回転行列Rの成分を表す。なお、回転角θ=0は、第1カメラ10と第2カメラ11とが平行である状態を示す。
The rotation matrix R is expressed, for example, by (Expression 2).
R = R (θz) · R (θy) · R (θx) (Equation 2)
θz, θy, and θx represent rotation angles (radians) around the Z axis, Y axis, and X axis, respectively, and represent components (rotation components) of the rotation angles of the respective axes. R (θz), R (θy), and R (θx) represent components of the rotation matrix R of the Z axis, the Y axis, and the X axis, respectively. The rotation angle θ = 0 indicates that the
3次元座標計算部24は、対応点ペア情報、第1カメラ10の内部パラメータ及び外部パラメータ、第2カメラ11の内部パラメータ及び外部パラメータ、並びにベースライン長62に基づいて、対象点41の3次元座標(X,Y,Z)を順次計算する(図3(C)参照)。対応点ペア情報には、ディスプレイ31の画面に表示された第1画像GZ1,第2画像GZ2において指定された画面上の位置座標(x,y)が含まれる。また、対象点41は、対応点ペアに含まれる第1画像GZ1の特徴点が逆射影された点である。3次元座標計算部24は、例えば、公知の技術(例えば特許文献1に記載された技術)により、対象点41の3次元座標を計算する。
The three-dimensional coordinate
内部パラメータは、例えば、第1カメラ10及び第2カメラ11の焦点距離、光軸座標、アスペクト比、スキュー歪を含む。外部パラメータは、例えば、第1カメラ10に対する第2カメラ11の位置(X軸,Y軸,Z軸の3成分)及び姿勢(X軸,Y軸,Z軸に沿った3回転成分)を含む。ベースライン長62は、第1カメラ10及び第2カメラ11間の距離である。内部パラメータ及び外部パラメータは、例えばカメラ毎に定まっている。
The internal parameters include, for example, focal lengths of the
内部パラメータは、各カメラの図示しないメモリにより、予め保持されている。外部パラメータは、順次導出され、メモリ27に保持される。ベースライン長62は、例えば、第1カメラ10及び第2カメラ11の少なくとも一方の図示しないメモリにより、予め保持されている。内部パラメータやベースライン長62の情報は、ポート28を介してカメラから取得され、メモリ27に保持される。
The internal parameters are held in advance by a memory (not shown) of each camera. The external parameters are sequentially derived and held in the
精度評価部25は、3次元座標計算部24によって計算された3次元座標の精度を評価する。この精度評価は、入力デバイス26を介して、ユーザにより指定された対応点(指定対応点)のZ座標を用いて行われる。
The
例えば、精度評価部25は、入力デバイス26から、指定対応点のZ座標、つまり第1カメラ10から指定対応点amまでの距離(奥行き値)を入力する。精度評価部25は、この入力された距離と、3次元座標計算部24によって計算された指定対応点amのZ座標(距離)と、を比較する。精度評価部25は、比較の結果、この誤差(差異)が指定値(例えば10%)以下である場合、3次元座標の計算結果は成功であると判定し、指定値を超える場合、3次元座標の計算結果は失敗であると判定する。なお、指定値は、ユーザが任意の値に設定可能である。
For example, the
また、ここでは、第1カメラ10から指定対応点amまでの距離情報として、Z座標の値(奥行き値)が用いられることを例示した。この代わりに、例えば第1カメラ10と指定対応点amとが同じZ軸上に無い場合、第1カメラ10及び指定対応点am間の、実際の距離を距離情報として用いられてもよい。
In addition, here, as an example of the distance information from the
3次元座標の計算結果が失敗であった場合、カメラパラメータ推定部23は、対応点検出部22によって検出された多くの対応点の中から、前回とは異なる所定数の対応点を再び無作為に選択する。3次元座標計算部24は、選択された所定数の対応点を用いて、指定対応点のZ座標を再度計算する。精度評価部25は、再度計算された指定対応点のZ座標値を用いて、前述した同様の判定を行う。一方、所定回数、判定結果が失敗である場合、ユーザは、別の対応点の指定及び奥行情報の入力操作を行ってもよい。
If the calculation result of the three-dimensional coordinates is a failure, the camera
[動作例]
次に、ステレオカメラシステム5の動作例について説明する。
[Operation example]
Next, an operation example of the
図4はステレオカメラシステム5の動作の概要を説明する図である。ディスプレイ31は、第1カメラ10で撮像された第1画像GZ1及び第2カメラ11で撮像された第2画像GZ2を表示する。ディスプレイ31の画面に表示された第1画像GZ1及び第2画像GZ2に対し、ユーザが入力デバイス26を操作してカーソルSLを対応点近辺まで移動させた後、クリック操作すると、枠fr1,fr2で囲まれる部分が画面上で拡大表示される。
FIG. 4 is a diagram for explaining the outline of the operation of the
画面上で対応点付近の画像(以下、周辺画像という)GZ11,GZ12が拡大表示されることで、ユーザは、その画像中に含まれる対応点を指定し易くなる。例えば、ユーザは、入力デバイス26を介して、拡大された周辺画像GZ11に含まれる対応点amを指定し、拡大された周辺画像GZ12に含まれる対応点bmを指定する。さらに、ユーザは、入力デバイス26を介して、奥行き情報(第1カメラ10から対応点amまでの距離)を入力する。なお、奥行き情報は、第2カメラ11から対応点bmまでの距離でもよい。この奥行き情報は、例えば、レーザ距離計やメジャー等を用いて測定された実測値である。図4では、実測値として「102m」が入力され、ディスプレイ31の画面には、拡大された周辺画像GZ11に重なるように表示される。
When the images (hereinafter referred to as peripheral images) GZ11 and GZ12 near the corresponding points are enlarged and displayed on the screen, the user can easily specify the corresponding points included in the images. For example, the user specifies the corresponding point am included in the enlarged peripheral image GZ11 via the
ユーザが指定及び入力を終えると、プロセッサ30は、これらの情報を元に、3次元復元処理を行う。この処理の結果、ディスプレイ31には、3次元復元画像が表示される。
When the user finishes designation and input, the
図5は初期設定時に行われる初期キャリブレーションの一例を示すフローチャートである。 FIG. 5 is a flowchart showing an example of the initial calibration performed at the time of initial setting.
初期キャリブレーションが開始すると、まず、特徴点抽出部21は、第1カメラ10及び第2カメラ11に対し、ポート28を介して画像取得要求を行い、第1カメラ10及び第2カメラ11からそれぞれ第1画像GZ1及び第2画像GZ2の画像データを取り込む(S1)。尚、画像取得要求が行われることなく、定期的に上記画像データの取り込みが行われてもよい。
When the initial calibration starts, first, the feature
入力デバイス26は、S1で取り込まれた第1画像GZ1及び第2画像GZ2に対し、ユーザによって指定された、対応点として指定したい画像上の点を受け付ける(S2)。
The
プロセッサ30は、ユーザによって画像上でクリック操作されると、カーソルSLで指定される、ディスプレイ31に表示される画像上の点を中心に周辺画像を拡大表示させる(S3)。
When the user clicks on the image, the
入力デバイス26は、拡大された周辺画像GZ11,GZ12に対し、ユーザによって指定された対応点(指定対応点)am,bmを受け付ける(S4)。対応点am,bmの指定により、対応点am,bmの座標の情報(位置情報の一例)が得られる。尚、指定対応点は、対応点検出部22により検出された複数の対応点に含まれる点でも含まれない点でもよい。
The
入力デバイス26は、ユーザによって入力された、第1カメラ10から指定対応点amまでの距離情報(奥行き値)を受け付ける(S5)。
The
プロセッサ30は、入力デバイス26から入力された、指定対応点の座標、距離情報、周辺画像GZ11,GZ12、対応点が指定された場合の第1画像GZ1及び第2画像GZ2(左右のカメラ画像)を、メモリ27に記憶(保存)させる(S6)。
The
一方、S2〜S6の処理と並行して、特徴点抽出部21は、第1画像GZ1及び第2画像GZ2からそれぞれ複数の特徴点を抽出する。対応点検出部22は、特徴点抽出部21によって抽出された特徴点の類似度から、第1画像GZ1及び第2画像GZ2の対応関係を表す、複数(例えば100個程度)の対応点を検出し、この対応関係を表す対応点ペア情報(画像座標ペア情報)を出力する(S7)。
On the other hand, in parallel with the processes of S2 to S6, the feature
図6は対応点am,bmを指定するための候補となる複数の対応点a11〜a15,b11〜b15及びこれらの対応点同士を結ぶ対応線c11〜c15が左右の画像(第1画像GZ1、第2画像GZ2)中に描画された画面を示す図である。 In FIG. 6, a plurality of corresponding points a11 to a15 and b11 to b15 which become candidates for specifying the corresponding points am and bm, and corresponding lines c11 to c15 connecting these corresponding points are left and right images (first image GZ1, It is a figure which shows the screen drawn in 2nd image GZ2).
ディスプレイ31には、第1画像GZ1、第2画像GZ2、対応点a11〜a15,b11〜b15、対応線c11〜c15が表示される。
The
対応点検出部22は、検出された複数(例えば100個程度)の対応点の中から、所定数(例えば5個程度)の対応点を無作為に選択する(S8)。この対応点の選択では、例えば、後述する精度評価部25による精度の評価において、誤差が指定値を超えると判断された際に用いられた対応点は除かれる。
The corresponding
カメラパラメータ推定部23は、複数の対応点の中から選択された対応点の対応点ペア情報、第1カメラ10の焦点距離、第2カメラ11の焦点距離、第1カメラ10の光軸座標、及び第2カメラ11の光軸座標に基づいて、第1カメラ10に対する第2カメラ11の位置及び姿勢を推定する(S9)。
The camera
3次元座標計算部24は、1つの指定された対応点(指定対応点)am,bmにおける、対応点ペア情報、第1カメラ10の内部パラメータ及び外部パラメータ、第2カメラ11の内部パラメータ及び外部パラメータ、並びにベースライン長62に基づいて、指定対応点amに対応する、対象点の3次元座標(X,Y,Z)を計算し、この対象点までの奥行き値(Z座標値)を求める(S10)。この対象点は、前述したように、対応点ペアに含まれる第1画像GZ1の特徴点が逆射影された点である。
The three-dimensional coordinate
精度評価部25は、S10で計算された奥行き値と、S5で入力された奥行き値とを用い、これらの差分である誤差が指定値(例えば10%)以下であるか否かを判別する(S11)。誤差が指定値以下である場合、精度評価部25は、精度評価が適正であり、3次元座標の計算結果が成功であるとして、本処理を終了する。
The
一方、S11で誤差が指定値を超える(所定値以上である)場合、精度評価部25は、精度評価の回数が閾値を超えたか否かを判別する(S12)。精度評価の回数が閾値を超えていない場合、プロセッサ30は、S8の処理に戻り、新たな対応点を所定数選択し、同様の処理を繰り返す。
On the other hand, when the error exceeds the designated value (is equal to or greater than the predetermined value) in S11, the
一方、精度評価の回数が閾値を超えた場合、プロセッサ30は、ディスプレイ31の画面に、対応点エラー、対応点の位置の確認、別の対応点の位置を入力することを促すエラーメッセージms1を表示させる(S13)。
On the other hand, when the number of accuracy evaluations exceeds the threshold value, the
図7は図6の画面において対応点のエラーメッセージms1及びマークMKが追加された画面を示す図である。ディスプレイ31の画面には、例えば、「指定した対応点の計測値が、指定誤差を超えました。対応点位置の確認か、別の対応点を指定してください。」のエラーメッセージms1(警告情報)が表示される。また、図7では、対応点a11,b11が指定対応点am,bmに設定されており、対応点am,bmを結ぶ対応線cm上に、エラーであることを表すマークMK(例えば×マーク)が表示される。
FIG. 7 is a view showing a screen to which the error message ms1 of the corresponding point and the mark MK are added in the screen of FIG. On the screen of
ここで、第1カメラ10から遠くに離れている対象点に相当する、遠方の対応点を指定した方が3次元情報の復元の精度が向上することが発明者等によって既に確かめられている。プロセッサ30は、この事実に基づき、ディスプレイ31の画面に、遠方の点を指定するように促すガイダンスms2を表示する(S14)。
Here, it has already been confirmed by the present inventors that the accuracy of the restoration of the three-dimensional information is improved by designating a distant corresponding point corresponding to a target point far from the
図8は図6の画面において遠方の点を対応点として指定するようにガイダンスms2が追加された画面を示す図である。ディスプレイ31の画面には、例えば、「なるべく遠方の点を指定してください」のガイダンスms2(案内情報)が表示される。さらに、ディスプレイ31の画面には、遠方の対応点を囲む矩形枠pf1,pf2が表示される。
FIG. 8 is a diagram showing a screen to which a guidance ms2 is added so as to designate a distant point on the screen of FIG. 6 as a corresponding point. On the screen of the
このように、3次元情報の復元の精度が向上すると見込まれるような、矩形枠pf1,pf2内に含まれる遠方の対応点が指定されるように促される。そのため、ユーザは、容易に、矩形枠pf1,pf2内の候補となる適切な対応点を指定できる。尚、S14の処理は、オプションで行われる処理であり、省略可能である。この後、プロセッサ30は、S2及びS7の処理に戻り、同様の処理を行う。
In this manner, it is prompted to specify a distant corresponding point included in the rectangular frames pf1 and pf2 which is expected to improve the accuracy of the three-dimensional information restoration. Therefore, the user can easily designate an appropriate corresponding point as a candidate in the rectangular frames pf1 and pf2. The process of S14 is an optional process and can be omitted. After that, the
そして、精度評価が適正であると判断された場合、3次元座標計算部24は、対応点ペア情報、第1カメラ10の内部パラメータ及び外部パラメータ、第2カメラ11の内部パラメータ及び外部パラメータ、並びにベースライン長62に基づいて、対象点の3次元座標(X,Y,Z)を順次計算する、3次元復元処理を行う。プロセッサ30は、3次元復元処理された対象点をディスプレイ31の画面に表示する。
When it is determined that the accuracy evaluation is appropriate, the three-dimensional coordinate
図5の処理によれば、S8において、検出された対応点から所定数の対応点が無作為に選択され、選択された対応点の情報を用いて、第1カメラ10に対する第2カメラ11の位置及び姿勢を推定するので、対応点の選択の度に、位置及び姿勢の推定結果が異なる。よって、位置及び姿勢の推定精度が異なることになる。そのため、対応点の選択によっては、3次元復元の精度が低い場合も高い場合もある。
According to the process of FIG. 5, in S8, a predetermined number of corresponding points are randomly selected from the detected corresponding points, and the information of the selected corresponding points is used to select the
これに対し、PC20は、位置及び姿勢の推定精度が所定基準以上となる場合、つまり距離情報の実測値と計算値との誤差が所定以下(例えば最小)となる場合の対応点を用いて3次元復元することで、3次元座標の復元精度を安定して向上できる。
On the other hand, the
[効果等]
仮に入力デバイス26により、複数の対応点のうちの任意の対応点の位置やカメラから上記任意の対応点までの距離情報を入力しない場合、つまり全ての対応点を自動検出し、全ての対応点に係る距離情報を演算により求める場合に、3次元復元の推定精度が低いことがある。例えば、対応点の検出ができても、対応点の距離情報の導出精度が低い場合がある。
[Effects, etc.]
Temporarily, when not inputting the position information of arbitrary corresponding points among a plurality of corresponding points or the distance information from the camera to the arbitrary corresponding points, that is, all the corresponding points are automatically detected, and all the corresponding points When the distance information related to is calculated by calculation, the estimation accuracy of the three-dimensional restoration may be low. For example, even if the corresponding point can be detected, the derivation accuracy of the distance information of the corresponding point may be low.
これに対し、第1の実施形態のステレオカメラシステム5のPC20では、ポート28は、第1カメラ10により撮像された第1画像GZ1と、第2カメラ11により撮像された第2画像GZ2とを取得する。プロセッサ30は、第1画像GZ1における特徴点aと、第2画像GZ2における特徴点bと、が対応する対応点am,bmを含む対応点を複数検出する。プロセッサ30は、複数の対応点am,bmに基づいて、特徴点aが逆射影された3次元座標を復元する。入力デバイス26は、複数の対応点の中からユーザによって指定された対応点amの座標(位置情報の一例)と、ユーザによって入力された第1カメラ10から対応点amまでの奥行き値(距離情報の一例)と、を入力する。プロセッサ30は、対応点amの座標及び奥行き値の入力後、3次元座標の復元の再計算を行う。
On the other hand, in the
尚、入力デバイス26により指定される対応点amは、複数の検出された対応点に含まれてもよいし、含まれなくてもよい。つまり、入力デバイス26は、第1画像GZ1及び第2画像GZ2における任意の対応点ペアを指定対応点ペアとし、指定対応点ペアの第1画像GZ1及び第2画像での位置情報と、第1カメラ10から指定対応点ペアまでの距離を示す距離情報と、を入力する。
The corresponding points am designated by the
このように、ユーザによって指定された対応点(第2の対応点の一例)の位置座標と、ユーザによって入力された第1カメラ10から指定対応点までの奥行き値と、に基づいて、指定対応点の3次元座標の復元の再計算を行う。従って、PC20は、復元される3次元座標の精度を評価でき、2つの撮像画像から復元される3次元座標の復元精度を向上できる。また、指定される対応点は少数(例えば1点)で済むので、ユーザ操作を煩雑にせずに、3次元座標の復元精度を向上できる。
Thus, based on the position coordinates of the corresponding point (an example of the second corresponding point) designated by the user and the depth value from the
また、ディスプレイ31は、プロセッサ30の制御により、第1画像GZ1及び第2画像GZ2の少なくとも一方に重ねて、複数の対応点a11〜a15,b11〜b15の候補を表示してもよい。
Further, the
これにより、ユーザは、ディスプレイ31に表示された候補となる複数の対応点の中から、対応点を指定し易くなる。従って、PC20の操作性が向上する。
As a result, the user can easily designate corresponding points from among the plurality of corresponding points displayed on the
また、ディスプレイ31は、プロセッサ30の制御により、第1画像GZ1及び第2画像GZ2の少なくとも一方に対し、第1カメラ10からの距離が長い位置を優先して対応点を指定するように促すガイダンス(案内情報の一例)ms2を表示してもよい。
Further, the
これにより、ユーザは、3次元座標の復元の精度が向上すると見込まれるような、遠方の対応点を指定するように促されるので、複数の候補の中から適切な対応点を指定し易くなる。 As a result, the user is prompted to specify a distant corresponding point that is expected to improve the accuracy of three-dimensional coordinate recovery, and it becomes easy to specify an appropriate corresponding point from among a plurality of candidates.
また、プロセッサ30は、入力デバイス26により入力された奥行き値と、3次元座標の復元により得られた第1カメラ10から指定対応点amまでの距離の情報(Z座標値)と、に基づいて、3次元座標の復元の再計算の要否を判定してもよい。
Further, the
これにより、PC20は、例えば、入力された対象点までの奥行き値と、復元された対象点までの奥行き値とが大きく異なる場合、3次元座標の復元の精度が低いと判断し、3次元座標の復元の再計算を行わずに、再計算による処理負荷を軽減できる。
Thereby, for example, when the depth value to the input target point and the depth value to the restored target point are largely different, the
また、ディスプレイ31は、プロセッサ30の制御により、入力デバイス26により入力された奥行き値と、3次元座標の復元により得られた第1カメラ10から指定対応点amまでの距離の情報と、の差分が所定値(指定値)以上である場合、指定対応点の入力に係るエラーメッセージms1を表示する。エラーメッセージms1は、警告情報の一例である。
Further, the
これにより、ユーザは、3次元座標の復元の低下を容易に確認でき、例えば別の対応点をスムーズに入力できる。 Thereby, the user can easily confirm the decrease in the restoration of the three-dimensional coordinates, and can smoothly input, for example, another corresponding point.
本実施形態では、図5において、PC20は、S2〜S6の処理とS7〜S10の処理とを並行して行うことを例示した。尚、S2〜S6の処理を行った後にS7〜S10の処理を行ってもよいし、S7〜S10の処理を行った後にS2〜S6の処理を行ってもよい。
In the present embodiment, FIG. 5 illustrates that the
(第2の実施形態)
第1の実施形態では、ステレオカメラシステムの初期設定時に行われる初期キャリブレーションを示した。第2の実施形態では、運用時に行われるキャリブレーション、つまり、ステレオカメラシステムを設置した後に行われる再キャリブレーションを示す。再キャリブレーションは、例えば、定期的に、復元される3次元画像が乱れるようになった場合、又は台風や地震等の自然災害が発生した場合、に行われる。なお、第2の実施形態においても、第1の実施形態と同様の初期キャリブレーションが既に行われているものとする。
Second Embodiment
The first embodiment shows the initial calibration performed at the time of initial setting of the stereo camera system. The second embodiment shows calibration performed at the time of operation, that is, recalibration performed after installing the stereo camera system. The recalibration is performed, for example, periodically, when the three-dimensional image to be restored becomes disturbed or when a natural disaster such as a typhoon or an earthquake occurs. Also in the second embodiment, it is assumed that the same initial calibration as in the first embodiment has already been performed.
第2の実施形態のステレオカメラシステムにおいて、第1の実施形態と同一の構成要素については、同一の符号を用いることで、その説明を省略又は簡略化する。 In the stereo camera system of the second embodiment, the description of the same components as in the first embodiment will be omitted or simplified by using the same reference numerals.
[構成等]
図9は第2の実施形態におけるPC20Aの構成例を示すブロック図である。PC20Aは、第1の実施形態のPC20の構成を含む他、読み出し部35及び位置探索部36を有する。
[Configuration etc.]
FIG. 9 is a block diagram showing a configuration example of the
プロセッサ30Aは、メモリ27に保持されたプログラムを実行することで、読み出し部35及び位置探索部36の各機能を実現する。
The
読み出し部35は、メモリ27に記憶された、指定情報(例えば、指定対応点座標,距離情報)及び画像情報(例えば、第1画像GZ1,第2画像GZ2,周辺画像GZ11,GZ12)を読み出す。
The
位置探索部36は、再キャリブレーション時に撮像された第1画像GZ3,第2画像GZ4の中に、初期設定時(又は前回キャリブレーション時)の周辺画像GZ11,GZ12があるか否かを探索する。この探索は、例えば、周辺画像GZ11,GZ12をテンプレートとし、それぞれ第1画像GZ3,第2画像GZ4中を移動させて、類似度の高い領域を検出する、テンプレートマッチングにより行われる。
The
[動作等]
図10及び図11は、運用時に行われる再キャリブレーションの一例を示すフローチャートである。
[Operation etc.]
10 and 11 are flowcharts showing an example of recalibration performed at the time of operation.
初期キャリブレーションにおけるS1の処理と同様、ポート28は、第1カメラ10及び第2カメラ11から、それぞれ第1画像GZ3及び第2画像GZ4の画像データを取り込む(S21)。
Similar to the process of S1 in the initial calibration, the
読み出し部35は、メモリ27に記憶された指定情報及び画像情報を読み出す(S22)。
The
位置探索部36は、読み出し部35によって読み出された、周辺画像GZ11,GZ12をテンプレートとし、S21で撮像された第1画像GZ3,第2画像GZ4に対し、テンプレートマッチングを行う。そして、位置探索部36は、第1画像GZ3,第2画像GZ4において周辺画像GZ11,GZ12と一致する領域画像PGZ3,PGZ4(図12参照)を探索する(S23)。
The
位置探索部36は、テンプレートマッチングが成功したか否かを判別する(S24)。
The
図12は再キャリブレーション時にテンプレートマッチングが行われる画面を示す図である。プロセッサ30Aは、テンプレートマッチング動作をディスプレイ31の画面に表示する。テンプレートマッチングでは、周辺画像GZ11と周辺画像GZ12とが、それぞれ図中、点線枠g,hで示すように、第1画像GZ3,第2画像GZ4に含まれるか否かの探索が行われる。周辺画像GZ11と周辺画像GZ12とが、それぞれ第1画像GZ3に含まれる領域画像PGZ3と第2画像GZ2に含まれる領域画像PGZ4とに一致するか判別される。一方しか一致しない場合あるいは両方とも一致しない場合、テンプレートマッチングが失敗したと判断される。
FIG. 12 shows a screen on which template matching is performed at the time of recalibration. The
テンプレートマッチングが成功した場合、位置探索部36は、一致した領域画像PGZ3,領域画像PGZ4を、それぞれ新たな周辺画像GZ11,周辺画像GZ12としてメモリ27に保存し、領域画像PGZ3の中心座標,領域画像PGZ4の中心座標を、それぞれ指定対応点am,bmの座標として保存する(S25)。
If the template matching is successful, the
一方、S24でテンプレートマッチングに失敗した場合、プロセッサ30Aは、ディスプレイ31の画面に、対応点探索エラーと対応点再入力を促す表示を行う(S26)。
On the other hand, when the template matching fails in S24, the
図13は対応点再探索のガイダンスms3等が追加された画面を示す図である。このディスプレイ31の画面には、例えば、「対応点再探索エラー: 前回の対応点指定画像を参考に、再度対応点位置を入力してください。」のガイダンスms3(案内情報)が表示される。
FIG. 13 is a diagram showing a screen to which guidance ms3 and the like for corresponding point re-search are added. On the screen of the
さらに、プロセッサ30Aは、例えばディスプレイ31の画面の右下隅に、前回の第1画像GZ1,第2画像GZ2と、対応点am,bmをそれぞれ含む周辺画像GZ11,周辺画像GZ12とを縮小して表示してもよい(S27)。
Further, the
入力デバイス26は、第1画像GZ3及び第2画像GZ4に対し、ユーザ操作によりカーソルSLで指定された対応点を受け付ける(S28)。プロセッサ30Aは、ユーザによって画像上でクリック操作されると、カーソルSLで指定される、ディスプレイ31に表示される画像上の点を中心に周辺画像を拡大表示する(S29)。
The
入力デバイス26は、拡大された周辺画像GZ11,GZ12に対し、ユーザによって指定された新たな対応点を受け付ける(S30)。なお、距離情報(奥行き値)は、初期キャリブレーション時に入力され、メモリ27に保存されているので、奥行き値の入力操作はされなくてもよい。
The
この後、S31〜S38の処理は、第1の実施形態におけるS7〜S14の処理と同じであるので、以後の処理については、その説明を省略する。 After this, since the processes of S31 to S38 are the same as the processes of S7 to S14 in the first embodiment, the description of the processes thereafter will be omitted.
なお、S37において、別の対応点位置を入力するように促すエラーメッセージを表示する場合においても、図13と同様の表示を行ってもよい。つまり、プロセッサ30Aは、ディスプレイ31の画面に、例えば、ガイダンスms3(案内情報)を表示し、ディスプレイ31の画面の右下隅に、前回の第1画像GZ3,第2画像GZ4と、対応点am,bmを含む周辺画像GZ11,周辺画像GZ12を縮小して表示してもよい。
In the case where an error message prompting the user to input another corresponding point position is displayed in S37, the same display as that in FIG. 13 may be performed. That is, the
[効果等]
このように、第2の実施形態のステレオカメラシステム5AのPC20Aでは、プロセッサ30Aは、3次元座標の復元を含むキャリブレーション(復元処理の一例)を複数回行う。初期キャリブレーション(第1の復元処理の一例)では、プロセッサ30Aは、入力デバイス26により入力された指定対応点am,bmの位置情報と、奥行き値と、初期キャリブレーションにおいて第1カメラ10により撮像された第1画像GZ1と、指定対応点amを含む周辺画像GZ11と、をメモリ27に保持しておく。
[Effects, etc.]
As described above, in the
運用時に行われる(初期キャリブレーションに後続する)再キャリブレーション(第2の復元処理の一例)では、プロセッサ30Aは、再キャリブレーションにおいて第1カメラ10により撮像された第1画像GZ3における周辺画像GZ11に対応する領域画像PGZ3を検出する。プロセッサ30Aは、領域画像PGZ3に含まれる、初期キャリブレーションで得られた指定対応点を、再キャリブレーションにおける指定対応点amに設定する。プロセッサ30Aは、指定対応点amの設定後、3次元座標の復元を再計算する。
In recalibration (an example of a second restoration process) performed at the time of operation (following the initial calibration), the
このように、PC20Aは、再キャリブレーション時に、初期キャリブレーション時の指定対応点の座標、奥行き値、テンプレート画像を用いることができる。従って、再キャリブレーションにおいて、初期キャリブレーションと同様の動作を行わなくて済み、再キャリブレーション時におけるユーザ操作やプロセッサの処理を軽減できる。よって、PC20Aは、1度得られた指定対応点の座標、奥行き値、テンプレート画像を有効活用でき、2つの撮像画像から復元される3次元座標の復元精度を容易に向上できる。なお、初期キャリブレーションに限らず、前回の再キャリブレーションに対して今回の再キャリブレーションが行われる場合でも同様である。
As described above, the
また、ディスプレイ31は、プロセッサ30Aの制御により、再キャリブレーションにおいて、第1画像GZ1における周辺画像GZ11に対応する領域画像PGZ3が検出されなかった場合、又は、メモリ27に保持された奥行き値と再キャリブレーションにより得られた第1カメラ10から指定対応点amまでの距離の情報との差分が指定値以上である場合、メモリ27に保持された指定対応点amの座標と周辺画像GZ11とを表示してもよい。
In addition, the
これにより、再キャリブレーションが失敗した場合、ユーザは、ディスプレイ31の画面に表示された、指定対応点amの位置情報と周辺画像GZ11とを見ながら、再度、対応点を指定できる。従って、PC20Aは、3次元座標の復元精度の高い再キャリブレーションを実行できる。
As a result, when recalibration fails, the user can specify the corresponding point again while looking at the position information of the designated corresponding point am and the peripheral image GZ11 displayed on the screen of the
また、ディスプレイ31は、メモリ27に記憶された指定対応点amの位置情報と周辺画像GZ11とを参照して、再キャリブレーションにおいて第1画像GZ3における指定対応点amの位置を入力するように促すガイダンスms3を表示してもよい。ガイダンスms3は、案内情報の一例である。
Further, the
これにより、ユーザは、対応点の指定を促すガイダンスms3に従って、再度、簡単に対応点を指定できる。従って、PC20Aの操作性が向上する。
Thus, the user can easily specify the corresponding point again according to the guidance ms3 prompting the specification of the corresponding point. Therefore, the operability of the
(他の実施形態)
以上のように、本開示における技術の例示として、第1,第2の実施形態を説明した。しかし、本開示における技術は、これに限定されず、変更、置き換え、付加、省略などを行った実施形態にも適用できる。また、各実施形態を組み合わせてもよい。
(Other embodiments)
As mentioned above, the 1st, 2nd embodiment was described as an illustration of the art in this indication. However, the technology in the present disclosure is not limited to this, and can also be applied to embodiments in which changes, replacements, additions, omissions, and the like have been made. Also, the embodiments may be combined.
第1,第2の実施形態では、図5及び図10を用いてキャリブレーションの一例を示したが、図5及び図10に示された処理以外の処理を含んでキャリブレーションが実施されてもよい。 In the first and second embodiments, an example of calibration is shown using FIGS. 5 and 10, but even if the calibration is performed including processes other than the processes shown in FIGS. 5 and 10 Good.
図14は初期設定時に行われる初期キャリブレーションの他例を示すフローチャートである。図15は、運用時に行われる再キャリブレーションの他例を示すフローチャートである。 FIG. 14 is a flow chart showing another example of the initial calibration performed at the time of initial setting. FIG. 15 is a flowchart showing another example of recalibration performed at the time of operation.
図14では、S12において、精度評価の回数が閾値を超えていない場合、プロセッサ30は、S1に進み、第1画像GZ1及び第2画像GZ2の画像データを再度取り込む。また、S14の処理後、プロセッサ30は、S1に進み、第1画像GZ1及び第2画像GZ2の画像データを再度取り込む。
In FIG. 14, when the number of accuracy evaluations does not exceed the threshold in S12, the
図15では、S36において、精度評価の回数が閾値を超えていない場合、プロセッサ30Aは、S21に進み、第1画像GZ1及び第2画像GZ2の画像データを再度取り込む。また、S38の処理後、プロセッサ30Aは、S21に進み、第1画像GZ1及び第2画像GZ2の画像データを再度取り込む。
In FIG. 15, when the number of accuracy evaluations does not exceed the threshold in S36, the
このように、PC20,20Aは、画像データを再度取り込むことで、撮像時刻に差がある複数の画像データを取得できる。撮像時刻の時間差により、例えば撮像画像における明るい領域や暗い領域が変化し、各々の撮像画像における特徴点が変化する。特徴点が変化することで、対応点も変化し、姿勢推定の結果も変化する。
As described above, the
よって、取得された複数の画像データの撮像時刻に差があることで、撮像画像において時間方向のばらつきが適度に加味される。これにより、PC20,20Aは、第1カメラ10に対する第2カメラ11の位置や姿勢を推定する推定精度を向上できる。尚、図14,図15では、画像データが再度取り込みされた場合でも、指定対応点が変更されなくてもよい。
Therefore, due to the difference in the imaging times of the plurality of acquired image data, the variation in the time direction is appropriately taken into consideration in the imaged image. Thus, the
第1,第2の実施形態では、プロセッサ30,30Aは、1つの指定された対応点と計算された対応点とを基に、精度評価を行うことを例示した。この代わりに、プロセッサ30,30Aは、複数(例えば2点あるいは3点)の指定された対応点と複数の計算された対応点とを基に、精度評価を行ってもよい。この場合、複数の対応点を用いることで、精度の評価がより正確になる。
In the first and second embodiments, the
第1,第2の実施形態では、指定対応点に対応する、対象点までの距離情報として奥行き値(つまりZ座標値)が用いられることを例示した。この代わりに、カメラから対象点までの距離情報として、X座標,Y座標,Z座標の値の二乗の和の平方根で表される距離を用いて、評価するようにしてもよい。これにより、例えば、カメラから対象点がX座標,Y座標方向に大きく外れている等、対象点のZ座標の実測値が求めにくい場合も、対処できる。 In the first and second embodiments, it is exemplified that the depth value (that is, the Z coordinate value) is used as the distance information to the target point corresponding to the designated corresponding point. Instead of this, evaluation may be performed using, as distance information from the camera to the target point, a distance represented by a square root of a sum of squares of values of X coordinate, Y coordinate, and Z coordinate. As a result, for example, it is possible to cope with the case where it is difficult to obtain the actual measurement value of the Z coordinate of the target point, such as when the target point is largely deviated from the camera in the X coordinate and Y coordinate directions.
第2の実施形態では、PC20Aは、再キャリブレーション時、第1画像及び第2画像の両方に対して、テンプレートマッチングにより指定対応点を求めることを例示した。この代わりに、例えば、明らかに第1画像及び第2画像のいずれか一方がずれていると判断できた場合、プロセッサ30Aは、ずれていると判断される方の画像を用いて指定対応点を求めてもよい。そして、プロセッサ30,30Aは、求められた指定対応点と、初期キャリブレーション(又は前回の再キャリブレーション)における他方の画像の指定対応点と、を用いて、3次元復元処理してもよい。また、PC20Aは、テンプレートマッチング以外の画像処理により、指定対応点を求めてもよい。
In the second embodiment, at the time of recalibration, the
また、第1,第2の実施形態では、第1カメラ10及び第2カメラ11は、PC20,20Aにケーブル18A、18Bを介して直接に接続される構成を例示した。この代わりに、第1カメラ10及び第2カメラ11とPC20,20Aとの間に送信機及び受信機が設けられ、送信機及び受信機を用いた通信により、データ及び信号が通信される構成でもよい。これにより、遠隔地に第1カメラと第2カメラとが設置され、離れた場所に設置されたPCにより、3次元復元処理できる。
In the first and second embodiments, the
第1の実施形態では、プロセッサは、物理的にどのように構成してもよい。また、プログラム可能なプロセッサを用いれば、プログラムの変更により処理内容を変更できるので、プロセッサの設計の自由度を高めることができる。プロセッサは、1つの半導体チップで構成してもよいし、物理的に複数の半導体チップで構成してもよい。複数の半導体チップで構成する場合、第1,第2の実施形態の各制御をそれぞれ別の半導体チップで実現してもよい。この場合、それらの複数の半導体チップで1つのプロセッサを構成すると考えることができる。また、プロセッサは、半導体チップと別の機能を有する部材(コンデンサ等)で構成してもよい。また、プロセッサが有する機能とそれ以外の機能とを実現するように、1つの半導体チップを構成してもよい。 In the first embodiment, the processor may be physically configured in any way. In addition, since the processing content can be changed by changing the program by using a programmable processor, the degree of freedom in processor design can be increased. The processor may be configured of one semiconductor chip or may be physically configured of a plurality of semiconductor chips. When it comprises a plurality of semiconductor chips, each control of the first and second embodiments may be realized by different semiconductor chips. In this case, it can be considered that one processor is configured by the plurality of semiconductor chips. Further, the processor may be configured by a member (such as a capacitor) having a function different from that of the semiconductor chip. Further, one semiconductor chip may be configured to realize the function of the processor and the other functions.
5、5A ステレオカメラシステム
10 第1カメラ
11 第2カメラ
13 第1の筐体
14 第2の筐体
18A、18B、18C ケーブル
20、20A PC
21 特徴点抽出部
22 対応点検出部
23 カメラパラメータ推定部
24 3次元座標計算部
25 精度評価部
26 入力デバイス
27 メモリ
28 ポート
30、30A プロセッサ
31 ディスプレイ
35 読み出し部
36 位置探索部
41 対象点
62 ベースライン長
a1〜a7、b1〜b7 特徴点
a11〜a15、b11〜b15 対応点
am、bm 指定された対応点(指定対応点)
c1〜c7、cm 対応線
fr1、fr2 枠
g,h 点線枠
GZ1、GZ3 第1画像
GZ2、GZ4 第2画像
GZ11、GZ12 周辺画像
MK マーク
ms1 エラーメッセージ
ms2、ms3 ガイダンス
pf1、pf2 矩形枠
PGZ3、PGZ4 領域画像
SL カーソル
5, 5A
21 feature
c1 to c7, cm Corresponding line fr1, fr2 Frame g, h Dotted frame GZ1, GZ3 First image GZ2, GZ4 Second image GZ11, GZ12 Peripheral image MK Mark ms1 Error message ms2, ms3 Guidance pf1, pf2 Rectangular frame PGZ3, PGZ4 Region image SL cursor
Claims (9)
前記ポートは、第1の撮像装置により撮像された第1の画像と、第2の撮像装置により撮像された第2の画像と、を取得し、
前記プロセッサは、
前記第1の画像における第1の特徴点と、前記第2の画像における第2の特徴点と、が対応する第1の対応点ペアを複数検出し、
複数の前記第1の対応点ペアに基づいて、前記第1の特徴点が逆射影された3次元座標を復元し、
前記入力デバイスは、
前記第1の画像及び前記第2の画像における任意の対応点ペアを第2の対応点ペアとして、前記第2の対応点ペアの前記第1の画像及び前記第2の画像それぞれでの位置を示す位置情報と、前記第1の撮像装置から前記第2の対応点ペアまでの距離を示す距離情報と、を入力し、
前記プロセッサは、
入力された前記第2の対応点ペアの前記位置情報に基づいて、前記第2の対応点ペアの3次元座標を復元し、
復元された前記第2の対応点ペアの3次元座標と、入力された前記距離情報と、に基づいて、前記3次元座標の精度を評価し、
前記精度が所定値以下である場合、前記第1の対応点ペアを変更して3次元座標を導出するためのパラメータを再計算し、
再計算された前記パラメータに基づいて、入力された前記第2の対応点ペアの3次元座標の復元の再計算を行う、
3次元情報復元装置。 A three-dimensional information restoration apparatus comprising a port, an input device and a processor, wherein
The port acquires a first image captured by a first imaging device and a second image captured by a second imaging device,
The processor is
Detecting a plurality of first corresponding point pairs in which the first feature points in the first image and the second feature points in the second image correspond to each other;
Restoring three-dimensional coordinates in which the first feature point is back-projected based on the plurality of first corresponding point pairs;
The input device is
The position in the first image and the second image of the second corresponding point pair is set as an arbitrary corresponding point pair in the first image and the second image as a second corresponding point pair. And position information indicating the distance from the first imaging device to the second corresponding point pair.
The processor is
The three-dimensional coordinates of the second corresponding point pair are restored based on the input position information of the second corresponding point pair,
The accuracy of the three-dimensional coordinates is evaluated based on the three-dimensional coordinates of the second corresponding point pair restored and the input distance information;
If the accuracy is equal to or less than a predetermined value, the first correspondence point pair is changed to recalculate parameters for deriving three-dimensional coordinates;
Recalculate restoration of three-dimensional coordinates of the input second corresponding point pair based on the recalculated parameter
Three-dimensional information restoration device.
前記プロセッサの制御により、前記第1の画像及び前記第2の画像の少なくとも一方に、前記複数の第1の対応点ペアに含まれる前記第2の対応点ペアの候補を表示するディスプレイを備える、3次元情報復元装置。 The three-dimensional information restoration apparatus according to claim 1, further comprising:
A display that displays, under control of the processor, at least one of the first image and the second image, candidates for the second corresponding point pair included in the plurality of first corresponding point pairs; Three-dimensional information restoration device.
前記ディスプレイは、前記プロセッサの制御により、前記第2の対応点ペアの位置として、前記第1の画像及び前記第2の画像の少なくとも一方において、前記第1の撮像装置からの距離が長い位置を優先して前記位置情報を入力するように促す案内情報を表示する、3次元情報復元装置。 The three-dimensional information restoration apparatus according to claim 2, further comprising:
Under control of the processor, the display is a position where the distance from the first imaging device is long in at least one of the first image and the second image as the position of the second corresponding point pair. A three-dimensional information restoration apparatus that displays guidance information prompting to input the position information with priority.
前記プロセッサは、前記入力デバイスにより入力された距離情報と、前記3次元座標の復元により得られた前記第1の撮像装置から前記第2の対応点ペアまでの距離の情報と、に基づいて、前記3次元座標の復元の再計算の要否を判定する、3次元情報復元装置。 The three-dimensional information restoration apparatus according to claim 2 or 3, wherein
The processor is based on distance information input by the input device and information on a distance from the first imaging device to the second corresponding point pair obtained by restoring the three-dimensional coordinates. A three-dimensional information restoration apparatus that determines the necessity of recalculation of restoration of the three-dimensional coordinates.
前記ディスプレイは、前記プロセッサの制御により、前記入力デバイスにより入力された距離情報と、前記3次元座標の復元により得られた前記第1の撮像装置から前記第2の対応点ペアまでの距離の情報との、差分が所定値以上である場合、前記第2の対応点ペアの入力に係る警告情報を表示する、3次元情報復元装置。 The three-dimensional information restoration apparatus according to claim 4, further comprising:
The display is, under the control of the processor, distance information input by the input device, and information of a distance from the first imaging device to the second corresponding point pair obtained by restoring the three-dimensional coordinates. The three-dimensional information restoration apparatus displays warning information related to the input of the second corresponding point pair when the difference between the two is equal to or more than a predetermined value.
前記プロセッサは、前記3次元座標の復元を含む復元処理を複数回行い、
第1の復元処理では、
前記入力デバイスにより入力された前記第2の対応点ペアの位置情報と、前記距離情報と、前記第1の復元処理において前記第1の撮像装置により撮像された前記第1の画像において前記第2の対応点ペアを含む第3の画像と、をメモリに保持し、
前記第1の復元処理に後続する第2の復元処理では、
前記第2の復元処理において前記第1の撮像装置により撮像された前記第1の画像における前記第3の画像に対応する領域を検出し、
前記領域に含まれる、前記第1の復元処理で得られた前記第2の対応点ペアに相当する対応点ペアを、前記第2の復元処理における第2の対応点ペアに設定し、
前記第2の対応点ペアの設定後、前記3次元座標の復元を再計算する、
3次元情報復元装置。 The three-dimensional information restoration apparatus according to claim 1, wherein
The processor performs restoration processing including restoration of the three-dimensional coordinates multiple times,
In the first restoration process,
In the first image captured by the first imaging device in the first restoration processing, position information of the second corresponding point pair input by the input device, the distance information, and the second image. Store in memory a third image containing the corresponding point pairs of
In a second restoration process subsequent to the first restoration process,
Detecting a region corresponding to the third image in the first image captured by the first imaging device in the second restoration process;
A corresponding point pair corresponding to the second corresponding point pair obtained in the first restoration process and included in the area is set as a second corresponding point pair in the second restoration process,
Recalculate the reconstruction of the three-dimensional coordinates after setting the second corresponding point pair,
Three-dimensional information restoration device.
ディスプレイを備え、
前記ディスプレイは、前記プロセッサの制御により、前記第2の復元処理において、前記第1の画像における前記第3の画像に対応する領域が検出されなかった場合、又は、前記メモリに保持された距離情報と前記第2の復元処理により得られた前記第1の撮像装置から前記第2の対応点ペアまでの距離の情報との差分が所定値以上である場合、前記メモリに保持された前記第2の対応点ペアの位置情報と前記第3の画像とを表示する、3次元情報復元装置。 The three-dimensional information restoration apparatus according to claim 6, further comprising:
Equipped with a display
The display is configured such that, under the control of the processor, an area corresponding to the third image in the first image is not detected in the second restoration process, or the distance information held in the memory And the second information stored in the memory, when the difference between the information of the distance from the first imaging device to the second corresponding point pair obtained by the second restoration processing is equal to or greater than a predetermined value. A three-dimensional information restoration apparatus for displaying position information of a corresponding point pair and the third image.
前記ディスプレイは、前記メモリに保持された前記第2の対応点ペアの位置情報と前記第3の画像とを参照して、前記第2の復元処理において前記第1の画像における前記第2の対応点ペアの位置情報を入力するように促す案内情報を表示する、3次元情報復元装置。 The three-dimensional information restoration apparatus according to claim 7, further comprising:
The display refers to the position information of the second corresponding point pair held in the memory and the third image, and the second correspondence in the first image in the second restoration process A three-dimensional information restoration apparatus that displays guidance information prompting to input position information of point pairs.
前記ポートは、第1の撮像装置により撮像された第1の画像と、第2の撮像装置により撮像された第2の画像と、を取得し、
前記プロセッサは、
前記第1の画像における第1の特徴点と、前記第2の画像における第2の特徴点と、が対応する第1の対応点ペアを複数検出し、
複数の前記第1の対応点ペアに基づいて、前記第1の特徴点が逆射影された3次元座標を復元し、
前記入力デバイスは、
前記第1の画像及び前記第2の画像における任意の対応点ペアを第2の対応点ペアとして、前記第2の対応点ペアの前記第1の画像及び前記第2の画像それぞれでの位置を示す位置情報と、前記第1の撮像装置から前記第2の対応点ペアまでの距離を示す距離情報と、を入力し、
入力された前記第2の対応点ペアの前記位置情報に基づいて、前記第2の対応点ペアの3次元座標を復元し、
復元された前記第2の対応点ペアの3次元座標と、入力された前記距離情報と、に基づいて、前記3次元座標の精度を評価し、
前記精度が所定値以下である場合、前記第1の対応点ペアを変更して3次元座標を導出するためのパラメータを再計算し、
再計算された前記パラメータに基づいて、入力された前記第2の対応点ペアの3次元座標の復元の再計算を行う、
3次元情報復元方法。 A three-dimensional information restoration method in a three-dimensional information restoration device comprising a port, an input device and a processor, comprising:
The port acquires a first image captured by a first imaging device and a second image captured by a second imaging device,
The processor is
Detecting a plurality of first corresponding point pairs in which the first feature points in the first image and the second feature points in the second image correspond to each other;
Restoring three-dimensional coordinates in which the first feature point is back-projected based on the plurality of first corresponding point pairs;
The input device is
The position in the first image and the second image of the second corresponding point pair is set as an arbitrary corresponding point pair in the first image and the second image as a second corresponding point pair. And position information indicating the distance from the first imaging device to the second corresponding point pair.
The three-dimensional coordinates of the second corresponding point pair are restored based on the input position information of the second corresponding point pair,
The accuracy of the three-dimensional coordinates is evaluated based on the three-dimensional coordinates of the second corresponding point pair restored and the input distance information;
If the accuracy is equal to or less than a predetermined value, the first correspondence point pair is changed to recalculate parameters for deriving three-dimensional coordinates;
Recalculate restoration of three-dimensional coordinates of the input second corresponding point pair based on the recalculated parameter
3D information restoration method.
Priority Applications (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2015225110A JP6541070B2 (en) | 2015-11-17 | 2015-11-17 | Three-dimensional information restoration apparatus and three-dimensional information restoration method |
PCT/JP2015/006218 WO2016103621A1 (en) | 2014-12-24 | 2015-12-14 | Three-dimensional information restoration device, three-dimensional information restoration system, and three-dimensional information restoration method |
US15/534,042 US10249058B2 (en) | 2014-12-24 | 2015-12-14 | Three-dimensional information restoration device, three-dimensional information restoration system, and three-dimensional information restoration method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2015225110A JP6541070B2 (en) | 2015-11-17 | 2015-11-17 | Three-dimensional information restoration apparatus and three-dimensional information restoration method |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2017090420A JP2017090420A (en) | 2017-05-25 |
JP6541070B2 true JP6541070B2 (en) | 2019-07-10 |
Family
ID=58768044
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2015225110A Active JP6541070B2 (en) | 2014-12-24 | 2015-11-17 | Three-dimensional information restoration apparatus and three-dimensional information restoration method |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6541070B2 (en) |
Families Citing this family (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP6760656B2 (en) * | 2017-11-24 | 2020-09-23 | 国立大学法人 岡山大学 | Object identification method |
JP7426611B2 (en) * | 2019-01-24 | 2024-02-02 | パナソニックIpマネジメント株式会社 | Calibration method and calibration device |
JP7240258B2 (en) * | 2019-05-30 | 2023-03-15 | キヤノン株式会社 | IMAGE PROCESSING DEVICE, CONTROL METHOD AND PROGRAM OF IMAGE PROCESSING DEVICE |
CN112634371B (en) * | 2019-09-24 | 2023-12-15 | 阿波罗智联(北京)科技有限公司 | Method and device for outputting information and calibrating camera |
CN116129036B (en) * | 2022-12-02 | 2023-08-29 | 中国传媒大学 | Depth information guided omnidirectional image three-dimensional structure automatic recovery method |
Family Cites Families (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH0933248A (en) * | 1995-07-20 | 1997-02-07 | Nissan Motor Co Ltd | Passive triangulation-type range finder |
JP3712847B2 (en) * | 1997-05-20 | 2005-11-02 | 株式会社リコー | Three-dimensional shape measurement method, three-dimensional shape measurement device, and posture detection device for imaging means |
JP4957134B2 (en) * | 2006-09-12 | 2012-06-20 | 株式会社日立製作所 | Distance measuring device |
JP2008304248A (en) * | 2007-06-06 | 2008-12-18 | Konica Minolta Holdings Inc | Method for calibrating on-board stereo camera, on-board distance image generating apparatus, and program |
JP5620200B2 (en) * | 2010-09-06 | 2014-11-05 | 株式会社トプコン | Point cloud position data processing device, point cloud position data processing method, point cloud position data processing system, and point cloud position data processing program |
-
2015
- 2015-11-17 JP JP2015225110A patent/JP6541070B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
JP2017090420A (en) | 2017-05-25 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109087359B (en) | Pose determination method, pose determination apparatus, medium, and computing device | |
EP3420530B1 (en) | A device and method for determining a pose of a camera | |
WO2016103621A1 (en) | Three-dimensional information restoration device, three-dimensional information restoration system, and three-dimensional information restoration method | |
US9501725B2 (en) | Interactive and automatic 3-D object scanning method for the purpose of database creation | |
JP6011548B2 (en) | Camera calibration apparatus, camera calibration method, and camera calibration program | |
JP6541070B2 (en) | Three-dimensional information restoration apparatus and three-dimensional information restoration method | |
JP5580164B2 (en) | Optical information processing apparatus, optical information processing method, optical information processing system, and optical information processing program | |
JP5593177B2 (en) | Point cloud position data processing device, point cloud position data processing method, point cloud position data processing system, and point cloud position data processing program | |
US20110249117A1 (en) | Imaging device, distance measuring method, and non-transitory computer-readable recording medium storing a program | |
JP6403115B2 (en) | 3D information restoration device, 3D information restoration system, and 3D information restoration method | |
JP7420135B2 (en) | Information processing device, information processing method, and program | |
KR102450236B1 (en) | Electronic apparatus, method for controlling thereof and the computer readable recording medium | |
US10600202B2 (en) | Information processing device and method, and program | |
JP6240706B2 (en) | Line tracking using automatic model initialization with graph matching and cycle detection | |
WO2019244536A1 (en) | Object tracking device, object tracking system, and object tracking method | |
CN113610702B (en) | Picture construction method and device, electronic equipment and storage medium | |
US9245343B1 (en) | Real-time image geo-registration processing | |
JP5887974B2 (en) | Similar image region search device, similar image region search method, and similar image region search program | |
JP2004020398A (en) | Method, device, and program for acquiring spatial information and recording medium recording program | |
JP5464671B2 (en) | Image processing apparatus, image processing method, and image processing program | |
JP7582460B2 (en) | Photographing condition determination method, photographing condition determination system, photographing condition determination device, and program | |
JP6071142B2 (en) | Image converter | |
JP6426215B2 (en) | Endoscope apparatus and program | |
JP6525693B2 (en) | Image processing apparatus and image processing method | |
JP6168601B2 (en) | Image converter |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20180522 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20190219 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20190416 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20190507 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20190531 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 6541070 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |