[go: up one dir, main page]

JP2004077262A - Three-dimensional imaging apparatus and method - Google Patents

Three-dimensional imaging apparatus and method Download PDF

Info

Publication number
JP2004077262A
JP2004077262A JP2002237295A JP2002237295A JP2004077262A JP 2004077262 A JP2004077262 A JP 2004077262A JP 2002237295 A JP2002237295 A JP 2002237295A JP 2002237295 A JP2002237295 A JP 2002237295A JP 2004077262 A JP2004077262 A JP 2004077262A
Authority
JP
Japan
Prior art keywords
imaging
imaging system
dimensional
calibration
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2002237295A
Other languages
Japanese (ja)
Other versions
JP3941631B2 (en
Inventor
Yoshinori Yamaguchi
山口 義紀
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujifilm Business Innovation Corp
Original Assignee
Fuji Xerox Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fuji Xerox Co Ltd filed Critical Fuji Xerox Co Ltd
Priority to JP2002237295A priority Critical patent/JP3941631B2/en
Publication of JP2004077262A publication Critical patent/JP2004077262A/en
Application granted granted Critical
Publication of JP3941631B2 publication Critical patent/JP3941631B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Landscapes

  • Image Analysis (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Image Processing (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To accurately measure the distance of a three-dimensional object after relieving occlusion. <P>SOLUTION: A mobile projection system/imaging system unit 10 and a second imaging system 20 are used; a coded pattern is projected to the three-dimensional object; imaging is made by the two imaging systems; and the distance of the three-dimensional object is measured. The mobile projection system/imaging system unit 10 and the second imaging system 20 is separated from a body 30, are retained by movement retention means 14, 21 each, and can be moved freely. Additionally, when the mobile projection system/imaging system unit 10 and the second imaging system 20 travel, the amount of displacement in the three-dimensional position between them and the amount of displacement in respective postures in the mobile projection system/imaging system unit 10 and the second imaging system 20 are detected, thus correcting calibration parameters and hence a measurement distance to a target without a recalibration. <P>COPYRIGHT: (C)2004,JPO

Description

【0001】
【発明の属する技術分野】
本発明は、複数のカメラによるステレオ法により輝度情報とともに距離情報を入手する画像撮影装置およびに方法係り、各カメラのレイアウトをフリーにすることにより、計測領域を広げ、使い勝手を向上させることを可能にする装置および方法に関する。
【0002】
【従来の技術】
対象物体の形状を測定する手法は、パッシブ手法(ステレオ画像法、shape from X)とアクティブ手法(光飛行時間測定法、ステレオ画像法)に大別される。パッシブ手法とアクティブ手法の違いは、対象物に対し何らかなエネルギーを照射するか否かの差である。両者の手法においてそれぞれ存在するステレオ画像法は、複数のカメラによって同一対象物を撮像し、撮像画像における対応点を抽出し、三角測量により距離画像を算出する方式である。図9にパッシブ手法のステレオ画像法による三次元画像撮像装置を示す。一般に、ステレオ画像法は、特殊なデバイスを使用せずに三次元撮像装置を実現できるというメリットがある一方、カメラのキャリブレーションを必要とし、その工程が煩雑である、計測できない領域であるオクルージョンが必ず存在する等のデメリットがある。
【0003】
キャリブレーションは、カメラ間の距離や姿勢などのレイアウトが変わるとカメラキャリブレーションを再度行う必要があり、これがさらに煩雑な工程を招いていた。従ってステレオ画像法を計測手法に用いた三次元画像撮像装置は、基本的に装置内の各コンポーネントである撮像系、画像処理系、電気系の位置関係が固定であり、一つの筐体に作り込まれている。そのため装置本体は大型化し可動性が悪く個別にカメラを移動させることができないため、対象物の形状や大きさに応じた任意視点での計測には不向きであり、計測領域が限定されるという問題があった。
【0004】
オクルージョンは、凹凸がある対象物を二つのカメラで撮像するときにそれぞれのカメラの視線方向が違うために、一方のカメラでは撮像できる領域が他方のカメラでは撮像できない領域が存在しすることから発生する。そこで対象物の形状に合わせて個々のカメラを自由に移動できれば、オクルージョン領域はかなり低減できる。またカメラの位置やアングルを自由に変えることができれば、装置本体を移動させることなく、対象物の距離画像を手軽に取得することができる。しかしながら、上述した理由により、三次元画像撮像装置内の各コンポーネントは固定であるため、これらの要求は実現できないのが現状である。
【0005】
パッシブ手法のステレオ画像法は、対象物に特徴点がないと計測精度が極端に低下する問題がある。特開2000−9442号では、この問題を解決するために、投光系により対象物に符号化光を投射し、投光系の光軸方向から対象物上の光学像を撮像し、投光系の光軸方向と異なる方向から対象物上の光学像を撮像する手法が示されている(図10参照)。対象物上には、符号化された光パターンが投影されているため、対象物自体に特徴点がなくても、計測精度が低下することなく、しかも投光系の光軸方向から対象物上の光学像を撮像することにより、対象物の反射率に起因した対応点探索精度の劣化を防ぐことのできる優れた手法である。しかしながら、この手法により提案された三次元画像撮像装置においても、装置内の各コンポーネントは固定であるため、先述した問題は解決できないのが現状である。
【0006】
【発明が解決しようとする課題】
そこで本発明では、可動性がよく、任意視点での計測が可能であり、オクルージョン領域を緩和でき、計測精度が高く、キャリブレーションの煩雑さを解消できる三次元画像撮像装置および方法を提供することを目的とする。
【0007】
【課題を解決するための手段】
本発明の一側面によれば、上述の目的を達成するために、符号化されたパターンを投射する投光系と、投光系と略同主点で、略同光軸方向から該符号化パターン投射像を撮像する第1の撮像系と、該投光系の光軸方向と異なる方向から該符号化パターン投射像を撮像する第2の撮像系と、該第1および第2の撮像系におけるカメラのキャリブレーションパラメータを用いて距離画像を算出する三次元画像撮像装置において、該投光系と該第1の撮像系は、一つの移動式投光系・撮像系ユニットとして構成され、該移動式投光系・撮像系ユニットと該第2の撮像系は、互いに自由に移動可能であり、かつ撮像系間の三次元位置の変位量を検出する三次元位置変位量検出手段と、各撮像系の姿勢方向の変位量を検出する姿勢変位量検出手段とを有するようにしている。
【0008】
この構成においては、該移動式投光系・撮像系ユニットと該第2の撮像系を相互に移動可能にしているので(少なくとも一方が対象物に対して移動するので)オクルージョン領域を削減することができる。
【0009】
該移動式投光系・撮像系ユニットと該第2の撮像系の内の一方のみを対象物に対して移動させてもよいし、双方を対象物に対して移動させてもよい。
【0010】
該移動式投光系・撮像系ユニットと該第2の撮像系におけるカメラの各々において実施したキャリブレーションにより求めたキャリブレーションパラメータを記憶するキャリブレーションパラメータ記憶手段を設け、正確に距離測定が可能である。
【0011】
さらに、三次元位置変位量検出手段および該姿勢変位量検出手段により求めた撮像系間の三次元位置変位量および各撮像系の姿勢方向の変位量により、該キャリブレーションパラメータ記憶手段に記憶されたキャリブレーションパラメータを補正することにより、再キョリブレーションを行う必要がない。
【0012】
なお、本発明は、装置またはシステムの発明として実現できるのみでなく、方法の態様でも実現可能である。
【0013】
本発明の上述の側面および本発明の他の側面は特許請求の範囲に記載され、以下実施例を用いて詳細に説明される。
【0014】
【発明の実施の形態】
以下、図面を参照しながら本発明の実施例を具体的に説明する。
【0015】
図1に本発明の実施例の構成図を示す。図1において、本実施例における三次元画像撮影装置は、移動式投光系・撮像系ユニット10、第2の撮像系20、本体30、パーソナルコンピュータ40が基本的な構成である。
【0016】
移動式投光系・撮像系ユニット10は、第1の撮像系11と投光系12とハーフミラー13とから構成され、ハーフミラー13により投光系12と撮像系11は、略主点、略同光軸に調整、固定されており、両者の位置関係が変わることはない。投光系12からは符号化されたパターンが対象物50に投射される。符号化されたパターンは例えば図2に示すようなものであり、輝度の違うスリットパターンが同じ繰り返しが無いように配列されている。
【0017】
本体30には、画像処理系31と電気系32およびカメラのキャリブレーション時に求めたキャリブレーションパラメータを記憶するキャリブレーションパラメータ記憶手段33がコンポーネントとして存在し、筐体(本体30)により一つに収められている。パーソナルコンピュータ40は、本体30を制御しかつ得られた三次元画像を表示するための装置である。
【0018】
移動式投光系・撮像系ユニット10および第2の撮像系20は、ケーブルにより本体30から分離され、それぞれ移動保持手段14、21により保持され、自由に移動が可能である。移動式投光系・撮像系ユニット10および第2の撮像系20の移動は、手作業で行ってもよいし、所定の駆動手段を用いてもよい。
【0019】
移動式投光系・撮像系ユニット10における第1の撮像系11には、三次元位置変位量検出手段(図3に符号15で示す)および姿勢変位量検出手段(図3に符号16で示す)が具備されている。第2の撮像系20には、姿勢変位量検出手段(図3に符号22で示す)が具備されている。これらを説明する図を図3に示す。
【0020】
図3において、三次元位置変位量検出手段15は、二つの撮像系11、20間における三次元位置の変位量を検出する検出デバイスである。本実施例では、検出法としてLEDやLDのスポット光走査と2次元配列の光検出器を組み合わせたTOF(Time of Flight)法、あるいはLEDやLDのスポット光走査とPSD(Position Sensing Device)を組み合わせた三角測量法を用いた。
【0021】
TOF法による検出デバイスでは、図4に示すように、第1の撮像系11に光源であるLEDあるいはLD151と2次元配列の光検出器152(後述する三角測量法ではPSD153)を具備してある。LEDあるいはLD151のパルス状のスポット光を上下左右に走査させる。このスポット光の走査は、例えば図5に示すような2組のガルバノミラー154、155を用いて行うことができる。走査光の内、第2の撮像系20上の反射面23で反射したパルス光を第1の撮像系11に具備された光検出器152により検出し、パルス照射時刻と反射光検出時刻差から算出した距離値とパルス走査角により、二つの撮像系間における三次元位置の変位量を求めた。
【0022】
LEDやPDとPSDを組み合わせた三角測量法による検出デバイスでも、第1の撮像系に光源であるLEDあるいはLD151とPSD153を具備し、LEDあるいはLD151のパルス状のスポット光を図5のガルバノミラー154、155を用いて、上下左右に走査させる。走査光の内、第2の撮像系20上の反射面23で反射したスポット光を第1の移動式撮像系11に具備されたPSD153により検出した。PSD153によりスポット光が検出された位置が正確に分かり三角測量の原理により、二つの撮像系間における三次元位置の変位量を求めた。またPSD153の換わりにエリアセンサであるCCDセンサやCMOSセンサを用いても構わない。
【0023】
姿勢変位量検出手段16、22は、撮像系11、20の姿勢方向変位量を検出できる検出デバイスであり、本実施例では、ジャイロによる加速度センサ、あるいはコイルによる地磁気センサを用いた。姿勢変位量検出手段16、22は、第1および第2の撮像系11、20双方に具備されてある。ジャイロによる加速度センサでは、移動に伴い発生する加速度を積分することにより姿勢方向の変位量を求めた。地磁気センサでは、コイルに発生する磁界の向きと地磁気の向きの差分を検出することにより、姿勢方向を求めた。姿勢方向の変位量は、撮像系11、20の移動前と移動後の距離値の差分により求めた。これを第1および第2の撮像系11、20双方において行うことにより、それぞれの撮像系の姿勢変位量を求めた。
【0024】
撮像系11、20におけるカメラのキャリブレーションは、Tsaiが提案する手法を用いた(R Y.Tsai、「A Versatile CameraCalibration Technique for High−Accuracy 3D Machine Vision Metrology Using Off−the−Shelf TV Cameras and Lenses」、 IEEE Journal of Robotics and Automation、vol.RA−3、No.4、August 1987 参照)。これは、ピンホールカメラにレンズ収差の補正を加えたカメラモデルを想定し、物体の三次元位置(ワールド座標系)と撮像面座標(カメラ座標系)を関連付けるキャリブレーションパラメータ(カメラ主点位置、回転角、焦点距離、収差、画像中心等)を、校正チャートを用いて高精度に求める手法である。図6に用いた校正チャートを示す。全体サイズは、99.2×121.4mmであり、10.3×10.3mmの正方形パッチをピッチ22.2mmで5×6個分並べたものである。校正チャートを装置のワーキングディスタンスに相当する位置に垂直方向から30°傾けた状態で固定し、装置と校正チャートの距離を予め求めておいて、二つの撮像系11、20それぞれにおいて撮像した。これにより、既知である校正チャートにおける正方形パッチの頂点座標(ワールド座標系)と撮像系11、20の撮像面座標(カメラ座標系)を関連付けるキャリブレーションパラメータであるカメラ主点位置、回転角、焦点距離、収差、画像中心、倍率を求めた。これにより、撮像面上の座標と対象物の座標を結ぶ直線式をそれぞれの撮像系11、20において算出できる。対象物上の座標は、同一の点(対応点)としているため、二つの直線式の交点の座標を算出することにより、対象物までの距離を求めた。求めたキャリブレーションパラメータは、各撮像系11、20がキャリブレーション時の配置と異なる場合、キャリブレーションパラメータであるカメラ主点位置、回転角に影響を及ぼす。従って、カメラ主点位置、回転角を補正する必要が生じる。本実施例では、カメラ主点位置を三次元位置変位量検出手段15により求めた三次元位置変位量により補正し、カメラ回転角を姿勢変位量検出手段16、22により求めた姿勢変位量により補正した。各撮像系11、20がキャリブレーション時の配置と異なる場合は、補正後のキャリブレーションパラメータを用いて対象物までの距離値を算出した。
【0025】
三次元画像を取得するまでの手順を図7および図8に示したフローチャートにより説明する。前段階として、撮像系のキャリブレーションを実施する。これを第1のフローチャート(図7)用いて説明する。移動式投光系・撮像系ユニットにおける第1の撮像系11および第2の撮像系20の両者間の距離、各撮像系11、20の姿勢方向が変化しないように配置決め、固定する(S10)。この状態で各撮像系11、20において、校正チャートを撮像する(S11)。撮像画像によりキャリブレーションパラメータを算出し、キャリブレーションパラメータ記憶手段33に保存する(S12)。
【0026】
次に第2のフローチャート(図8)用いて、対象物の距離値算出までのフローを説明する。符号化パターンを対象物に投射し、対象物を第1、第2の撮像系にて撮像する(S20)。ここで、第1、第2の撮像系11、20がキャリブレーション時の配置のままである場合には、キャリブレーションパラメータ記憶手段33に保存されたキャリブレーションパラメータを用いて、対象物までの距離値を算出する(S21、S22)。第1、第2の撮像系11、20がキャリブレーション時の配置でない場合には、三次元位置変位量検出手段15より、撮像系11、20間の三次元位置変位量を算出し、姿勢変位量検出手段16、22により、各撮像系11、20の姿勢変位量を算出する(S23、S24)。次にカメラ主点位置を三次元位置変位量検出手段15により求めた三次元位置変位量により補正し、カメラ回転角を姿勢変位量検出手段16、22により求めた姿勢変位量により補正する(S25)。補正後のキャリブレーションパラメータを用いて対象物までの距離値を算出する(S22)。
【0027】
輝度情報は、符号化パターンを対象物に投射しない状態で第1あるいは第2の撮像系11、20により撮像した輝度画像を輝度情報として使用する。これにより、距離情報のみならず輝度情報も取得が可能になり、対象物の形状データに輝度データを貼り付けて表示するコンテンツを作成する際のデータ提供も可能になる。
【0028】
【発明の効果】
以上説明したように、本発明によれ、各撮像系がキャリブレーション時の配置と異なる場合でも、補正手段により、初めから全てのキャリブレーション作業をやり直す煩わしさがなく、また各カメラのレイアウトをフリーにすることにより、可動性がよく、任意視点での計測が可能であり、オクルージョン領域を緩和でき、計測精度が高く、使い勝手を向上させることが可能となる三次元画像を提供できる。
【図面の簡単な説明】
【図1】本発明の実施例における三次元画像撮像装置の構成図である。
【図2】本発明の実施例における符号化パターンを示す図である。
【図3】本発明の実施例における移動式撮像系の三次元位置変位量検出手段および姿勢変位量検出手段の構成および検出手法を説明する図である。
【図4】三次元位置変位量検出手段に用いる光源(LEDあるいはLD)および光検出器を説明する図である。
【図5】三次元位置変位量検出手段に用いる光源からの光を走査する機構を説明する図である。
【図6】本発明の実施例における校正チャートである。
【図7】本発明の実施例におけるキャリブレーションのフローを説明する図である。
【図8】本発明の実施例における距離値算出までのフローを説明する図である。
【図9】従来の三次元画像撮像装置の構成図である。
【図10】従来の三次元画像撮像装置の構成図である。
【符号の説明】
10   移動式投光系・撮像系ユニット
11   第1の撮像系
12   投光系
13   ハーフミラー
14   移動保持手段
15   三次元位置変位量検出手段
16   姿勢変位量検出手段
20   第2の撮像系
21   移動保持手段
22   姿勢変位量検出手段
23   反射面
30   本体
31   画像処理系
32   電気系
33   キャリブレーションパラメータ記憶手段
40   パーソナルコンピュータ
50   対象物
151   LEDあるいはLD(光源)
152   光検出器
153   PSD
154、155   ガルバノミラー
[0001]
TECHNICAL FIELD OF THE INVENTION
The present invention relates to an image capturing apparatus and a method for obtaining distance information along with luminance information by a stereo method using a plurality of cameras. By making the layout of each camera free, it is possible to expand a measurement area and improve usability. Device and method.
[0002]
[Prior art]
Techniques for measuring the shape of the target object are roughly classified into a passive technique (stereo image method, shape from X) and an active technique (light time-of-flight measurement method, stereo image method). The difference between the passive method and the active method is whether or not the object is irradiated with some energy. The stereo image method that exists in both methods is a method in which the same object is imaged by a plurality of cameras, corresponding points in the image are extracted, and a distance image is calculated by triangulation. FIG. 9 shows a three-dimensional image capturing apparatus using a passive stereo image method. In general, the stereo image method has an advantage that a three-dimensional image pickup device can be realized without using a special device.On the other hand, occlusion, which is an area that cannot be measured, requires camera calibration, and the process is complicated. There are disadvantages such as being always present.
[0003]
For the calibration, if the layout such as the distance between the cameras or the posture changes, it is necessary to perform the camera calibration again, and this has caused a more complicated process. Therefore, in a three-dimensional image pickup device that uses the stereo image method as a measurement method, the positional relationship of the image pickup system, image processing system, and electric system, which are the components in the device, is basically fixed, and it is made in one housing. Is embedded. As a result, the size of the device body is large and the mobility is poor, and the camera cannot be moved individually. Therefore, it is not suitable for measurement from an arbitrary viewpoint according to the shape and size of the target object, and the measurement area is limited. was there.
[0004]
Occlusion occurs when an object with irregularities is imaged by two cameras because the two cameras have different viewing directions, and there is an area that can be imaged by one camera but an area that cannot be imaged by the other camera. I do. If the individual cameras can be freely moved according to the shape of the object, the occlusion area can be considerably reduced. If the position and angle of the camera can be freely changed, a distance image of the object can be easily acquired without moving the apparatus body. However, for the above-described reasons, since each component in the three-dimensional image capturing apparatus is fixed, these requirements cannot be realized at present.
[0005]
The passive stereo image method has a problem that the measurement accuracy is extremely reduced if the target object has no feature points. In Japanese Patent Application Laid-Open No. 2000-9442, in order to solve this problem, encoding light is projected onto the object by a light projecting system, and an optical image on the object is taken from the optical axis direction of the light projecting system. A method of capturing an optical image on an object from a direction different from the optical axis direction of the system is shown (see FIG. 10). Since the encoded light pattern is projected on the object, even if the object itself has no feature points, the measurement accuracy does not decrease and the object is projected from the optical axis direction of the light projecting system. Is an excellent method that can prevent deterioration of the accuracy of searching for a corresponding point due to the reflectance of the target object by capturing the optical image of. However, even in the three-dimensional image pickup device proposed by this method, since the components in the device are fixed, the above-mentioned problem cannot be solved at present.
[0006]
[Problems to be solved by the invention]
In view of the above, the present invention provides a three-dimensional image capturing apparatus and method which have good mobility, can perform measurement from an arbitrary viewpoint, can reduce an occlusion region, have high measurement accuracy, and can eliminate the complexity of calibration. With the goal.
[0007]
[Means for Solving the Problems]
According to one aspect of the present invention, in order to achieve the above-described object, a light projecting system that projects an encoded pattern, and the encoding method is performed at substantially the same principal point as the light projecting system from substantially the same optical axis direction. A first imaging system that captures a pattern projection image, a second imaging system that captures the encoded pattern projection image from a direction different from the optical axis direction of the light projection system, and the first and second imaging systems In the three-dimensional image capturing apparatus that calculates a distance image using the calibration parameters of the camera in the above, the light projecting system and the first image capturing system are configured as one movable light projecting system / imaging system unit, A movable projection / imaging system unit and the second imaging system are freely movable with respect to each other, and a three-dimensional position displacement amount detecting means for detecting a three-dimensional position displacement amount between the imaging systems; Posture displacement detecting means for detecting the displacement of the imaging system in the posture direction. It has to so that.
[0008]
In this configuration, the movable projection system / imaging system unit and the second imaging system are movable relative to each other (since at least one moves relative to the object), so that the occlusion area is reduced. Can be.
[0009]
Only one of the movable projection / imaging system unit and the second imaging system may be moved with respect to the target, or both may be moved with respect to the target.
[0010]
Calibration parameter storage means for storing calibration parameters obtained by calibration performed in each of the movable projection system / imaging system unit and the camera in the second imaging system is provided, and distance measurement can be performed accurately. is there.
[0011]
Further, the three-dimensional position displacement amount between the imaging systems obtained by the three-dimensional position displacement amount detection means and the posture displacement amount detection means and the displacement amount in the posture direction of each imaging system are stored in the calibration parameter storage means. Correcting the calibration parameters eliminates the need for recalibration.
[0012]
Note that the present invention can be realized not only as an apparatus or a system invention, but also as a method.
[0013]
The above aspects of the present invention and other aspects of the present invention are set forth in the following claims, and are described in detail below using examples.
[0014]
BEST MODE FOR CARRYING OUT THE INVENTION
Hereinafter, embodiments of the present invention will be specifically described with reference to the drawings.
[0015]
FIG. 1 shows a configuration diagram of an embodiment of the present invention. In FIG. 1, the three-dimensional image capturing apparatus according to the present embodiment has a basic configuration including a movable light projecting / imaging system unit 10, a second imaging system 20, a main body 30, and a personal computer 40.
[0016]
The movable projection system / imaging system unit 10 includes a first imaging system 11, a projection system 12, and a half mirror 13. The half mirror 13 causes the projection system 12 and the imaging system 11 to have a substantially principal point. The optical axes are adjusted and fixed to substantially the same optical axis, and the positional relationship between the two does not change. The encoded pattern is projected onto the object 50 from the light projecting system 12. The encoded pattern is, for example, as shown in FIG. 2, and slit patterns having different luminances are arranged so as not to have the same repetition.
[0017]
The main body 30 includes, as components, an image processing system 31, an electric system 32, and a calibration parameter storage unit 33 for storing calibration parameters obtained at the time of calibration of the camera. Have been. The personal computer 40 is a device for controlling the main body 30 and displaying the obtained three-dimensional image.
[0018]
The movable light projecting / imaging system unit 10 and the second imaging system 20 are separated from the main body 30 by a cable, held by moving holding means 14 and 21, respectively, and can move freely. The movement of the movable light projecting / imaging system unit 10 and the second imaging system 20 may be performed manually, or a predetermined driving unit may be used.
[0019]
The first imaging system 11 in the movable light projecting / imaging system unit 10 includes a three-dimensional position displacement amount detecting means (indicated by reference numeral 15 in FIG. 3) and a posture displacement amount detecting means (indicated by reference numeral 16 in FIG. 3). ) Is provided. The second imaging system 20 includes a posture displacement amount detection unit (indicated by reference numeral 22 in FIG. 3). A diagram for explaining these is shown in FIG.
[0020]
In FIG. 3, a three-dimensional position displacement detecting unit 15 is a detection device that detects a displacement of a three-dimensional position between the two imaging systems 11 and 20. In this embodiment, as a detection method, a TOF (Time of Flight) method in which a spot light scan of an LED or LD is combined with a two-dimensional array of light detectors, or a spot light scan of an LED or LD and a PSD (Position Sensing Device) are used. A combined triangulation method was used.
[0021]
In the detection device based on the TOF method, as shown in FIG. 4, the first imaging system 11 includes an LED or LD 151 as a light source and a two-dimensionally arranged photodetector 152 (PSD 153 in a triangulation method described later). . The pulsed spot light of the LED or LD 151 is scanned up, down, left, and right. The scanning of the spot light can be performed using, for example, two sets of galvanometer mirrors 154 and 155 as shown in FIG. Among the scanning light, the pulse light reflected by the reflection surface 23 on the second imaging system 20 is detected by the photodetector 152 provided in the first imaging system 11, and the pulse light is detected from the difference between the pulse irradiation time and the reflected light detection time. The displacement of the three-dimensional position between the two imaging systems was obtained from the calculated distance value and the pulse scanning angle.
[0022]
The detection device based on the triangulation method in which the LED or the PD and the PSD are combined also includes the LED or the LD 151 and the PSD 153 as the light source in the first imaging system. , 155 is scanned vertically and horizontally. Of the scanning light, the spot light reflected by the reflection surface 23 on the second imaging system 20 was detected by the PSD 153 provided in the first movable imaging system 11. The position at which the spot light was detected by the PSD 153 was accurately known, and the displacement of the three-dimensional position between the two imaging systems was determined by the principle of triangulation. Further, instead of the PSD 153, a CCD sensor or a CMOS sensor, which is an area sensor, may be used.
[0023]
The posture displacement amount detecting means 16 and 22 are detection devices capable of detecting the posture direction displacement amount of the imaging systems 11 and 20. In this embodiment, an acceleration sensor using a gyro or a geomagnetic sensor using a coil is used. The posture displacement amount detecting means 16 and 22 are provided in both the first and second imaging systems 11 and 20. In a gyro-based acceleration sensor, the amount of displacement in the posture direction was obtained by integrating the acceleration generated due to the movement. In the geomagnetic sensor, the attitude direction is obtained by detecting the difference between the direction of the magnetic field generated in the coil and the direction of the geomagnetism. The displacement amount in the posture direction was obtained from the difference between the distance values of the imaging systems 11 and 20 before and after the movement. By performing this in both the first and second imaging systems 11 and 20, the amount of posture displacement of each imaging system was obtained.
[0024]
The calibration of the cameras in the imaging systems 11 and 20 was performed using the method proposed by Tsai (RY Tsai, "A Versatile Camera Calibration Technology for High-Accuracy 3D Machinery Vision Technology- , IEEE Journal of Robotics and Automation, vol. RA-3, No. 4, August 1987). This assumes a camera model in which a pinhole camera has been corrected for lens aberration, and calibrates parameters (camera principal point position, camera principal point position, This is a method for determining the rotation angle, focal length, aberration, image center, etc.) with high accuracy using a calibration chart. FIG. 7 shows the calibration chart used. The overall size is 99.2 × 121.4 mm, and 5 × 6 square patches of 10.3 × 10.3 mm are arranged at a pitch of 22.2 mm. The calibration chart was fixed to a position corresponding to the working distance of the apparatus while being tilted by 30 ° from the vertical direction, the distance between the apparatus and the calibration chart was determined in advance, and images were taken by the two imaging systems 11 and 20, respectively. Thus, the camera principal point position, the rotation angle, and the focus, which are calibration parameters for associating the vertex coordinates (world coordinate system) of the square patches in the known calibration chart with the imaging surface coordinates (camera coordinate system) of the imaging systems 11 and 20. The distance, aberration, image center, and magnification were determined. Thus, a straight line formula connecting the coordinates on the imaging surface and the coordinates of the target object can be calculated in the respective imaging systems 11 and 20. Since the coordinates on the object are the same point (corresponding point), the distance to the object was determined by calculating the coordinates of the intersection of the two linear equations. The obtained calibration parameters affect the camera principal point position and the rotation angle, which are the calibration parameters, when the arrangements of the imaging systems 11 and 20 are different from those at the time of calibration. Therefore, it is necessary to correct the camera principal point position and the rotation angle. In the present embodiment, the camera principal point position is corrected by the three-dimensional position displacement amount obtained by the three-dimensional position displacement detecting means 15, and the camera rotation angle is corrected by the posture displacement amount obtained by the posture displacement detecting means 16 and 22. did. When each of the imaging systems 11 and 20 was different from the arrangement at the time of calibration, the distance value to the object was calculated using the corrected calibration parameters.
[0025]
The procedure up to obtaining a three-dimensional image will be described with reference to the flowcharts shown in FIGS. As a previous step, calibration of the imaging system is performed. This will be described with reference to a first flowchart (FIG. 7). The distance between the first imaging system 11 and the second imaging system 20 in the movable light projection / imaging system unit and the orientation of each imaging system 11 and 20 are determined and fixed so as not to change (S10). ). In this state, each of the imaging systems 11 and 20 images a calibration chart (S11). A calibration parameter is calculated from the captured image and stored in the calibration parameter storage unit 33 (S12).
[0026]
Next, the flow up to the calculation of the distance value of the object will be described using a second flowchart (FIG. 8). The encoded pattern is projected on the object, and the object is imaged by the first and second imaging systems (S20). Here, when the first and second imaging systems 11 and 20 remain in the arrangement at the time of calibration, the distance to the target is calculated using the calibration parameters stored in the calibration parameter storage unit 33. The value is calculated (S21, S22). If the first and second imaging systems 11 and 20 are not arranged at the time of calibration, the three-dimensional position displacement amount detection means 15 calculates the three-dimensional position displacement amount between the imaging systems 11 and 20 and calculates the posture displacement. The amount of attitude change of each of the imaging systems 11 and 20 is calculated by the amount detection means 16 and 22 (S23, S24). Next, the camera principal point position is corrected by the three-dimensional position displacement amount obtained by the three-dimensional position displacement amount detecting means 15, and the camera rotation angle is corrected by the posture displacement amount obtained by the posture displacement amount detecting means 16 and 22 (S25). ). The distance value to the object is calculated using the corrected calibration parameters (S22).
[0027]
As the luminance information, a luminance image captured by the first or second imaging system 11 or 20 without projecting the encoded pattern on the target is used as the luminance information. This makes it possible to acquire not only the distance information but also the luminance information, and it is also possible to provide data when creating a content to be displayed by pasting the luminance data on the shape data of the target object.
[0028]
【The invention's effect】
As described above, according to the present invention, even when the arrangement of each imaging system is different from the arrangement at the time of calibration, there is no need to perform all the calibration work from the beginning by the correction means, and the layout of each camera is free. By doing so, it is possible to provide a three-dimensional image which has good mobility, enables measurement from an arbitrary viewpoint, can reduce an occlusion region, has high measurement accuracy, and can improve usability.
[Brief description of the drawings]
FIG. 1 is a configuration diagram of a three-dimensional image capturing apparatus according to an embodiment of the present invention.
FIG. 2 is a diagram showing an encoding pattern in an embodiment of the present invention.
FIG. 3 is a diagram illustrating a configuration and a detection method of a three-dimensional position displacement amount detecting unit and a posture displacement amount detecting unit of the mobile imaging system according to the embodiment of the present invention.
FIG. 4 is a diagram illustrating a light source (LED or LD) and a photodetector used for a three-dimensional position displacement amount detection unit.
FIG. 5 is a diagram illustrating a mechanism for scanning light from a light source used in a three-dimensional position displacement amount detection unit.
FIG. 6 is a calibration chart in the example of the present invention.
FIG. 7 is a diagram illustrating a flow of calibration in the embodiment of the present invention.
FIG. 8 is a diagram illustrating a flow up to distance value calculation in the embodiment of the present invention.
FIG. 9 is a configuration diagram of a conventional three-dimensional image pickup device.
FIG. 10 is a configuration diagram of a conventional three-dimensional image pickup device.
[Explanation of symbols]
REFERENCE SIGNS LIST 10 movable light projecting / imaging system unit 11 first imaging system 12 light projecting system 13 half mirror 14 moving and holding means 15 three-dimensional position displacement detecting means 16 attitude displacement detecting means 20 second imaging system 21 moving and holding Means 22 Posture displacement amount detecting means 23 Reflecting surface 30 Main body 31 Image processing system 32 Electrical system 33 Calibration parameter storage means 40 Personal computer 50 Object 151 LED or LD (light source)
152 Photodetector 153 PSD
154, 155 Galvano mirror

Claims (5)

符号化されたパターンを投射する投光系と、該投光系と略同主点で、略同光軸方向から該符号化パターン投射像を撮像する第1の撮像系と、該投光系の光軸方向と異なる方向から該符号化パターン投射像を撮像する第2の撮像系とを具備し、該第1および第2の撮像系におけるカメラのキャリブレーションパラメータを用いて距離画像を算出する三次元画像撮像装置において、該投光系と該第1の撮像系とは、一つの移動式投光系・撮像系ユニットとして構成され、該移動式投光系・撮像系ユニットと該第2の撮像系とは、相対的に移動可能であり、かつ撮像系間の三次元位置の変位量を検出する三次元位置変位量検出手段と各撮像系の姿勢方向の変位量を検出する姿勢変位量検出手段とを有することを特徴とした三次元画像撮像装置。A light projection system for projecting the encoded pattern, a first imaging system for imaging the encoded pattern projected image from substantially the same optical axis direction at substantially the same principal point as the light projection system, and a light projection system A second imaging system that captures the coded pattern projected image from a direction different from the optical axis direction of the first imaging system, and calculates a distance image using calibration parameters of the cameras in the first and second imaging systems. In the three-dimensional image pickup apparatus, the light projecting system and the first image pickup system are configured as one movable light projecting system / imaging system unit, and the movable light projecting system / imaging system unit and the second And the three-dimensional position displacement amount detection means for detecting the three-dimensional position displacement amount between the imaging systems and the posture displacement for detecting the displacement amount in the posture direction of each imaging system. A three-dimensional image pickup device, comprising: an amount detection unit. 該移動式投光系・撮像系ユニットと該第2の撮像系の各々のカメラおいて実施したキャリブレーションにより求めたキャリブレーションパラメータを記憶するキャリブレーションパラメータ記憶手段を有する請求項1記載の三次元画像撮像装置。3. The three-dimensional storage device according to claim 1, further comprising a calibration parameter storage unit configured to store calibration parameters obtained by calibration performed in each of the movable projection system / imaging system unit and the camera of the second imaging system. Imaging device. 該三次元位置変位量検出手段および該姿勢変位量検出手段により求めた撮像系間の三次元位置変位量および各撮像系の姿勢方向の変位量により、該キャリブレーションパラメータ記憶手段に記憶されたキャリブレーションパラメータを補正する請求項2記載の三次元画像撮像装置。The calibration stored in the calibration parameter storage unit is performed based on the three-dimensional position displacement amount between the imaging systems and the displacement amount in the posture direction of each imaging system obtained by the three-dimensional position displacement amount detection unit and the posture displacement amount detection unit. 3. The three-dimensional image capturing apparatus according to claim 2, wherein the three-dimensional image capturing device corrects the parameter. 該移動式投光系・撮像系ユニットおよび該第2の撮像系の一方のみを移動可能とする請求項1、2または3記載の三次元画像撮像装置。4. The three-dimensional image pickup apparatus according to claim 1, wherein only one of the movable light projecting / imaging system unit and the second image pickup system is movable. 符号化されたパターンを投射する投光系と、該投光系と略同主点で、略同光軸方向から該符号化パターン投射像を撮像する第1の撮像系と、該投光系の光軸方向と異なる方向から該符号化パターン投射像を撮像する第2の撮像系とを用意し、該第1および第2の撮像系におけるカメラのキャリブレーションパラメータを用いて距離画像を算出する三次元画像撮像方法において、該投光系と該第1の撮像系とを、一つの移動式投光系・撮像系ユニットとして構成し、該移動式投光系・撮像系ユニットと該第2の撮像系とを、相対的に移動可能に保持し、撮像系間の三次元位置の変位量を検出し、各撮像系の姿勢方向の変位量を検出し、撮像系間の三次元位置変位量および各撮像系の姿勢方向の変位量により、キャリブレーションパラメータを補正することを特徴とする三次元画像撮像方法。A light projection system for projecting the encoded pattern, a first imaging system for imaging the encoded pattern projected image from substantially the same optical axis direction at substantially the same principal point as the light projection system, and a light projection system And a second imaging system that captures the encoded pattern projection image from a direction different from the optical axis direction of the optical imaging device, and calculates a distance image using the calibration parameters of the cameras in the first and second imaging systems. In the three-dimensional image capturing method, the light projecting system and the first image capturing system are configured as one movable light projecting system / imaging system unit, and the movable light projecting system / imaging system unit and the second The imaging systems are held relatively movably, the amount of displacement of the three-dimensional position between the imaging systems is detected, the amount of displacement of each imaging system in the attitude direction is detected, and the three-dimensional position displacement between the imaging systems is detected. The calibration parameter is compensated for by the amount of Three-dimensional imaging method, characterized by.
JP2002237295A 2002-08-16 2002-08-16 Three-dimensional imaging apparatus and method Expired - Fee Related JP3941631B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2002237295A JP3941631B2 (en) 2002-08-16 2002-08-16 Three-dimensional imaging apparatus and method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2002237295A JP3941631B2 (en) 2002-08-16 2002-08-16 Three-dimensional imaging apparatus and method

Publications (2)

Publication Number Publication Date
JP2004077262A true JP2004077262A (en) 2004-03-11
JP3941631B2 JP3941631B2 (en) 2007-07-04

Family

ID=32021099

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2002237295A Expired - Fee Related JP3941631B2 (en) 2002-08-16 2002-08-16 Three-dimensional imaging apparatus and method

Country Status (1)

Country Link
JP (1) JP3941631B2 (en)

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006258798A (en) * 2005-02-04 2006-09-28 Stryker Leibinger Gmbh & Co Kg Device and method for improved shape characterization
JP2008507682A (en) * 2004-07-23 2008-03-13 3シェイプ・アクティーゼルスカブ Adaptive 3D scanning
US8483444B2 (en) 2007-06-15 2013-07-09 Kabushiki Kaisha Toshiba Apparatus for inspecting and measuring object to be measured
JP2015501938A (en) * 2011-12-16 2015-01-19 フリードリヒ−シラー−ユニバーシタット イエナ 3D measurement method for objects with limited depth
KR101557295B1 (en) 2014-05-21 2015-10-05 주식회사 더에스 3-dimensional time of flight image capturing device
JP2019012070A (en) * 2018-08-01 2019-01-24 キヤノン株式会社 Information processing device, information processing method, and program
CN109443217A (en) * 2018-08-30 2019-03-08 南京理工大学 A kind of displacement structure monitoring method based on security camera and identification marking
CN111383332A (en) * 2020-03-26 2020-07-07 深圳市菲森科技有限公司 Three-dimensional scanning and reconstruction system, computer equipment and readable storage medium

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9781397B2 (en) 2015-10-05 2017-10-03 Panasonic Intellectual Property Management Co., Ltd. Projector and projector system
JPWO2018167999A1 (en) 2017-03-17 2020-01-16 パナソニックIpマネジメント株式会社 Projector and projector system

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008507682A (en) * 2004-07-23 2008-03-13 3シェイプ・アクティーゼルスカブ Adaptive 3D scanning
JP4892480B2 (en) * 2004-07-23 2012-03-07 3シェイプ・アクティーゼルスカブ Adaptive 3D scanning
JP2006258798A (en) * 2005-02-04 2006-09-28 Stryker Leibinger Gmbh & Co Kg Device and method for improved shape characterization
US8483444B2 (en) 2007-06-15 2013-07-09 Kabushiki Kaisha Toshiba Apparatus for inspecting and measuring object to be measured
JP2015501938A (en) * 2011-12-16 2015-01-19 フリードリヒ−シラー−ユニバーシタット イエナ 3D measurement method for objects with limited depth
KR101557295B1 (en) 2014-05-21 2015-10-05 주식회사 더에스 3-dimensional time of flight image capturing device
WO2015178575A1 (en) * 2014-05-21 2015-11-26 주식회사 더에스 Apparatus for acquiring three-dimensional time of flight image
JP2019012070A (en) * 2018-08-01 2019-01-24 キヤノン株式会社 Information processing device, information processing method, and program
CN109443217A (en) * 2018-08-30 2019-03-08 南京理工大学 A kind of displacement structure monitoring method based on security camera and identification marking
CN111383332A (en) * 2020-03-26 2020-07-07 深圳市菲森科技有限公司 Three-dimensional scanning and reconstruction system, computer equipment and readable storage medium
CN111383332B (en) * 2020-03-26 2023-10-13 深圳市菲森科技有限公司 Three-dimensional scanning and reconstruction system, computer device and readable storage medium

Also Published As

Publication number Publication date
JP3941631B2 (en) 2007-07-04

Similar Documents

Publication Publication Date Title
US10401143B2 (en) Method for optically measuring three-dimensional coordinates and controlling a three-dimensional measuring device
US10088296B2 (en) Method for optically measuring three-dimensional coordinates and calibration of a three-dimensional measuring device
EP3619498B1 (en) Triangulation scanner having flat geometry and projecting uncoded spots
EP2068280B1 (en) Image Distortion Correction
JP5290324B2 (en) Method and system for accurately positioning at least one object in a final pose in space
JP5680196B2 (en) Optical measuring method and measuring system for obtaining three-dimensional coordinates on the surface of a measuring object
EP1579171B1 (en) Laser digitizer system for dental applications
CN110230983B (en) Vibration-resisting optical three-dimensional positioning method and device
WO2015024361A1 (en) Three-dimensional reconstruction method and device, and mobile terminal
JP2022171677A5 (en)
JP2008241643A (en) Three-dimensional shape measuring device
JP6969121B2 (en) Imaging system, image processing device and image processing program
JP3941631B2 (en) Three-dimensional imaging apparatus and method
JP2008045983A (en) Stereo camera adjustment device
WO2016040229A1 (en) Method for optically measuring three-dimensional coordinates and calibration of a three-dimensional measuring device
JP7353757B2 (en) Methods for measuring artifacts
EP1418398A1 (en) Shape measuring device
JP3925129B2 (en) Three-dimensional imaging apparatus and method
JP2004193947A (en) Three-dimensional imaging apparatus and method
JP4077755B2 (en) POSITION DETECTION METHOD, DEVICE THEREOF, PROGRAM THEREOF, AND CALIBRATION INFORMATION GENERATION METHOD
JP2002022424A (en) Three-dimensional measuring apparatus
JP2007093412A (en) Three-dimensional shape measuring device
JP2010048629A (en) Three-dimensional shape measuring device and three-dimensional shape measuring method
JP4158300B2 (en) 3D input method and 3D input device
JPH1047940A (en) Measuring plate, wheel alignment measuring device and wheel alignment measuring method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20050712

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20070227

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20070313

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20070326

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110413

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120413

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130413

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130413

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140413

Year of fee payment: 7

LAPS Cancellation because of no payment of annual fees