[go: up one dir, main page]

JP5161025B2 - Imaging apparatus and method for three-dimensional shape measurement, and program - Google Patents

Imaging apparatus and method for three-dimensional shape measurement, and program Download PDF

Info

Publication number
JP5161025B2
JP5161025B2 JP2008263386A JP2008263386A JP5161025B2 JP 5161025 B2 JP5161025 B2 JP 5161025B2 JP 2008263386 A JP2008263386 A JP 2008263386A JP 2008263386 A JP2008263386 A JP 2008263386A JP 5161025 B2 JP5161025 B2 JP 5161025B2
Authority
JP
Japan
Prior art keywords
measurement
pattern light
irradiation
subject
image group
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2008263386A
Other languages
Japanese (ja)
Other versions
JP2010091492A (en
Inventor
智紀 増田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujifilm Corp
Original Assignee
Fujifilm Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujifilm Corp filed Critical Fujifilm Corp
Priority to JP2008263386A priority Critical patent/JP5161025B2/en
Priority to US12/576,600 priority patent/US8294762B2/en
Publication of JP2010091492A publication Critical patent/JP2010091492A/en
Application granted granted Critical
Publication of JP5161025B2 publication Critical patent/JP5161025B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Length Measuring Devices By Optical Means (AREA)
  • Measurement Of Optical Distance (AREA)
  • Image Input (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)

Description

本発明は、被写体の3次元形状を計測するための計測用画像を取得する3次元形状計測用撮影装置および方法並びに3次元形状計測用撮影方法をコンピュータに実行させるためのプログラムに関するものである。   The present invention relates to a three-dimensional shape measurement photographing apparatus and method for acquiring a measurement image for measuring a three-dimensional shape of a subject, and a program for causing a computer to execute the three-dimensional shape measurement photographing method.

一般にステレオ法またはステレオ3次元画像計測法等と称される距離測定方法は、異なる位置に設けられた少なくとも2台以上のカメラ(1台の基準カメラおよびその他の参照カメラ)を用いて被写体を撮影し、これにより取得された複数の計測用画像(基準カメラによる基準画像および参照カメラによる参照画像)の間で画素を対応付け、対応付けられた基準画像上の画素と、参照画像上の画素との位置の差(視差)に三角測量の原理を適用することにより、基準カメラまたは参照カメラから当該画素に対応する被写体上の点までの距離を計測するものである。   A distance measurement method generally referred to as a stereo method or a stereo three-dimensional image measurement method, etc., shoots an object using at least two cameras (one reference camera and other reference cameras) provided at different positions. Then, the pixels are associated between the plurality of measurement images (the standard image by the standard camera and the reference image by the reference camera) acquired in this way, and the pixels on the standard image and the pixels on the reference image associated with each other By applying the principle of triangulation to the difference in position (parallax), the distance from the reference camera or reference camera to the point on the subject corresponding to the pixel is measured.

したがって、被写体の表面全体に対応するすべての画素までの距離を測定すれば、被写体の形状や奥行きという3次元形状を計測することが可能となる。なお、1台のカメラのみを使用して異なる位置において撮影を行うことにより複数の画像を取得して、被写体の3次元形状を計測することも可能である。   Therefore, if the distances to all the pixels corresponding to the entire surface of the subject are measured, a three-dimensional shape such as the shape and depth of the subject can be measured. It is also possible to measure a three-dimensional shape of a subject by acquiring a plurality of images by shooting at different positions using only one camera.

ここで、ステレオ法においては、図12に示すように、基準画像G1上のある点Paに写像される実空間上の点は、点P1,P2,P3というように点Cからの視線上に複数存在するため、実空間上の点P1 ,P2 ,P3 等の写像である直線(エピポーラ線)上に、点Paに対応する参照画像G2上の点Pa′が存在することに基づいて画素の対応付けが行われる。なお、図12において点Cは基準カメラの視点、点C′は参照カメラの視点である。   Here, in the stereo method, as shown in FIG. 12, the points in the real space mapped to a certain point Pa on the reference image G1 are on the line of sight from the point C, such as points P1, P2, and P3. Since there are a plurality of pixels, a pixel Pa based on the presence of a point Pa ′ on the reference image G2 corresponding to the point Pa on a straight line (epipolar line) that is a map of the points P1, P2, P3, etc. in the real space. Association is performed. In FIG. 12, point C is the viewpoint of the base camera, and point C ′ is the viewpoint of the reference camera.

しかしながら、ステレオ法においては、被写体が人物の顔のように濃淡、形状および色等の局所的な特徴がない場合には、画素の対応付けを行うことにより対応点を求めることができないという問題がある。このような問題を解決するために、被写体にランダムドットパターン、格子状パターン、バーコード状パターン等のパターン光を照射し、パターン光の位置に基づいて対応点を求める手法が提案されている(特許文献1,2参照)。   However, in the stereo method, when the subject does not have local features such as shading, shape, and color like a human face, there is a problem in that corresponding points cannot be obtained by performing pixel association. is there. In order to solve such a problem, a method has been proposed in which a subject is irradiated with pattern light such as a random dot pattern, a lattice pattern, or a barcode pattern, and corresponding points are obtained based on the position of the pattern light ( (See Patent Documents 1 and 2).

また、被写体のコントラストを測定し、その測定結果に応じてパターン光を照射するか否かを決定する手法も提案されている(特許文献3参照)。
特開2004−212385号公報 特開2000−283752号公報 特開2002−300605号公報
There has also been proposed a method for measuring the contrast of a subject and determining whether or not pattern light is irradiated according to the measurement result (see Patent Document 3).
JP 2004-212385 A Japanese Patent Laid-Open No. 2000-283755 Japanese Patent Laid-Open No. 2002-300605

しかしながら、特許文献3に記載された手法は、画角の全範囲に対してパターン光の照射の有無を設定しているため、画角の範囲におけるコントラストが高い部分や、局所的な特徴を有する部分にもパターン光が照射される。このようにコントラストが高い部分あるいは局所的な特徴を有する部分にパターン光が照射されると、取得される画像の高周波成分が多くなる。このため、その部分に対応する画像にモアレが生じる等してしまうことから、対応点の探索を良好に行うことができず、その結果、被写体までの距離を正確に測定できなくなってしまうという問題がある。   However, since the method described in Patent Document 3 sets the presence or absence of pattern light irradiation for the entire range of the angle of view, it has a portion with high contrast in the range of the angle of view and local features. The pattern light is also irradiated to the portion. When pattern light is irradiated onto a portion with high contrast or a local feature in this way, the high-frequency component of the acquired image increases. For this reason, moire occurs in the image corresponding to the portion, and therefore, the corresponding point cannot be searched well, and as a result, the distance to the subject cannot be measured accurately. There is.

本発明は上記事情に鑑みなされたものであり、被写体にパターン光を照射することにより取得した画像を用いて、被写体の3次元形状を正確に計測することを目的とする。   The present invention has been made in view of the above circumstances, and an object thereof is to accurately measure the three-dimensional shape of a subject using an image acquired by irradiating the subject with pattern light.

本発明による3次元形状計測用撮影装置は、被写体を撮影することにより、該被写体の3次元形状を計測するための複数の計測用画像からなる計測用画像群を取得する複数の撮影手段と、
前記撮影手段による画角の範囲内にパターン光を照射する照射手段と、
前記被写体のプレ画像を取得するよう、または前記パターン光が非照射の前記被写体の複数の第1の計測用画像からなる第1の計測用画像群を取得するよう、前記複数の撮影手段を制御する撮影制御手段と、
前記プレ画像または少なくとも1つの前記第1の計測用画像上に複数の領域を設定し、該領域毎に前記パターン光照射の有無を判定する判定手段とを備えたことを特徴とするものである。
A three-dimensional shape measurement photographing apparatus according to the present invention, by photographing a subject, a plurality of photographing means for acquiring a measurement image group composed of a plurality of measurement images for measuring the three-dimensional shape of the subject,
Irradiating means for irradiating pattern light within the range of the angle of view by the photographing means;
The plurality of photographing units are controlled so as to acquire a pre-image of the subject or to acquire a first measurement image group including a plurality of first measurement images of the subject not irradiated with the pattern light. Photographing control means to
And a determination unit configured to set a plurality of regions on the pre-image or at least one of the first measurement images, and to determine the presence / absence of the pattern light irradiation for each region. .

「プレ画像」とは、3次元形状の計測に使用しない画像であり、例えば計測用画像と比較して、画素数が少ない画像を用いることができる。   A “pre-image” is an image that is not used for measuring a three-dimensional shape. For example, an image having a smaller number of pixels can be used as compared with a measurement image.

なお、本発明による3次元形状計測用撮影装置においては、前記判定結果を記憶する記憶手段をさらに備えるものとしてもよい。   The three-dimensional shape measurement imaging apparatus according to the present invention may further include a storage unit that stores the determination result.

また、本発明による3次元形状計測用撮影装置においては、前記被写体にパターン光を照射するよう前記照射手段を制御する照射制御手段をさらに備えるものとし、
前記撮影制御手段を、前記パターン光が照射された前記被写体の複数の第2の計測用画像からなる第2の計測用画像群を取得するよう前記撮影制御手段を制御する手段としてもよい。
The three-dimensional shape measurement imaging apparatus according to the present invention further includes an irradiation control unit that controls the irradiation unit to irradiate the subject with pattern light.
The imaging control unit may be a unit that controls the imaging control unit to acquire a second measurement image group including a plurality of second measurement images of the subject irradiated with the pattern light.

また、本発明による3次元形状計測用撮影装置においては、前記被写体にパターン光を照射するよう前記照射手段を制御する照射制御手段をさらに備えるものとし、
前記撮影制御手段を、前記複数の領域のうち前記パターン光を照射すると判定された領域が存在する場合に、前記パターン光が照射された前記被写体の複数の第2の計測用画像からなる第2の計測用画像群を取得するよう前記撮影制御手段を制御する手段としてもよい。
The three-dimensional shape measurement imaging apparatus according to the present invention further includes an irradiation control unit that controls the irradiation unit to irradiate the subject with pattern light.
The imaging control unit is configured to include a second measurement image including a plurality of second measurement images of the subject irradiated with the pattern light when there is an area determined to be irradiated with the pattern light among the plurality of areas. It is good also as a means to control the said imaging | photography control means so that the image group for a measurement may be acquired.

また、本発明による3次元形状計測用撮影装置においては、前記第1および前記第2の計測用画像群に基づいて、前記被写体の3次元形状を計測する計測手段をさらに備えるものとしてもよい。   In addition, the three-dimensional shape measurement imaging apparatus according to the present invention may further include measurement means for measuring the three-dimensional shape of the subject based on the first and second measurement image groups.

また、本発明による3次元形状計測用撮影装置においては、前記第1の計測用画像から前記パターン光が非照射と判定された非照射領域を抽出し、前記第2の計測用画像から前記パターン光を照射すると判定された照射領域を抽出し、互いに対応する前記第1および前記第2の計測用画像群から抽出した前記非照射領域および前記照射領域から、複数の合成画像からなる合成画像群を生成する合成手段をさらに備えるものとしてもよい。   In the three-dimensional shape measurement imaging apparatus according to the present invention, a non-irradiation region where the pattern light is determined to be non-irradiation is extracted from the first measurement image, and the pattern is extracted from the second measurement image. A composite image group consisting of a plurality of composite images from the non-irradiation area and the irradiation area extracted from the first and second measurement image groups corresponding to each other, extracted from the irradiation area determined to emit light. It is good also as a thing further provided with the synthetic | combination means which produces | generates.

また、本発明による3次元形状計測用撮影装置においては、前記合成画像群に基づいて、前記被写体の3次元形状を計測する計測手段をさらに備えるものとしてもよい。   In addition, the three-dimensional shape measurement imaging apparatus according to the present invention may further include a measurement unit that measures the three-dimensional shape of the subject based on the composite image group.

本発明による3次元形状計測用撮影方法は、被写体を撮影することにより、該被写体の3次元形状を計測するための複数の計測用画像からなる計測用画像群を取得する複数の撮影手段と、
前記撮影手段による画角の範囲内にパターン光を照射する照射手段とを備えた3次元形状計測用撮影装置における3次元形状計測用撮影方法であって、
前記被写体のプレ画像または前記パターン光が非照射の前記被写体の複数の第1の計測用画像からなる第1の計測用画像群を取得し、
前記プレ画像または少なくとも1つの前記第1の計測用画像上に複数の領域を設定し、該領域毎に前記パターン光照射の有無を判定することを特徴とするものである。
A three-dimensional shape measurement photographing method according to the present invention includes a plurality of photographing means for photographing a subject to obtain a measurement image group including a plurality of measurement images for measuring the three-dimensional shape of the subject;
An imaging method for 3D shape measurement in an imaging device for 3D shape measurement comprising irradiation means for irradiating pattern light within a range of an angle of view by the imaging means,
Obtaining a first measurement image group consisting of a plurality of first measurement images of the subject that is not irradiated with the pre-image of the subject or the pattern light;
A plurality of regions are set on the pre-image or at least one of the first measurement images, and the presence / absence of the pattern light irradiation is determined for each region.

なお、本発明による3次元形状計測用撮影方法をコンピュータに実行させるためのプログラムとして提供してもよい。   In addition, you may provide as a program for making a computer perform the imaging | photography method for three-dimensional shape measurement by this invention.

本発明によれば、被写体のプレ画像またはパターン光が非照射の被写体の複数の第1の計測用画像からなる第1の計測用画像群が取得され、プレ画像または少なくとも1つの第1の計測用画像上に複数の領域が設定され、設定された領域毎にパターン光照射の有無が判定される。このため、パターン光を照射して被写体の撮影を行って、パターン光が照射された被写体の複数の第2の計測用画像からなる第2の計測用画像群を取得し、判定結果に基づいて、画角の範囲にコントラストが高い部分や、局所的な特徴を有する部分については第2の計測用画像群を、それ以外の部分については第1の計測用画像群を用いて対応点を探索することにより、モアレ等を含まない高画質の画像を用いて対応点を精度よく求めることができ、その結果、被写体の3次元形状を精度よく計測することができる。   According to the present invention, a first measurement image group including a plurality of first measurement images of a subject that has not been irradiated with a pre-image or pattern light of the subject is acquired, and the pre-image or at least one first measurement is acquired. A plurality of areas are set on the image for use, and the presence or absence of pattern light irradiation is determined for each set area. Therefore, the subject is photographed by irradiating the pattern light, and a second measurement image group including a plurality of second measurement images of the subject irradiated with the pattern light is obtained, and based on the determination result. Search for corresponding points using the second measurement image group for parts with high contrast in the field of view range or parts having local features, and for the other parts using the first measurement image group By doing so, it is possible to accurately obtain corresponding points using a high-quality image that does not include moire or the like, and as a result, it is possible to accurately measure the three-dimensional shape of the subject.

また、判定結果を記憶することにより、第1および第2の計測用画像群を用いて被写体の3次元形状を計測する際に、判定結果に応じたパターン光が照射された照射領域およびパターン光が照射されていない非照射領域を、第1および第2の計測用画像群から取得することができるため、3次元形状の計測を容易に行うことができる。   Further, by storing the determination result, when measuring the three-dimensional shape of the subject using the first and second measurement image groups, the irradiation region and the pattern light irradiated with the pattern light according to the determination result Since the non-irradiated region that is not irradiated with can be acquired from the first and second image groups for measurement, it is possible to easily measure a three-dimensional shape.

また、第1の計測用画像群からパターン光が非照射と判定された非照射領域を抽出し、第2の計測用画像群からパターン光を照射すると判定された照射領域を抽出し、互いに対応する第1および第2の計測用画像群から抽出した非照射領域および照射領域から、複数の合成画像からなる合成画像群を生成することにより、合成画像において、画角の範囲に含まれるコントラストが高い部分や、局所的な特徴を有する部分を、パターン光が照射されていないものとすることができる。したがって、画角の範囲にコントラストが高かったり、局所的な特徴を有する部分を含む場合であっても、モアレ等を含まない高画質の合成画像を取得できるため、対応点を精度よく求めることができ、その結果、被写体の3次元形状を精度よく計測することができる。   In addition, a non-irradiation area that is determined to be non-irradiated with pattern light is extracted from the first image group for measurement, and an irradiation area that is determined to be irradiated with pattern light is extracted from the second image group for measurement. By generating a composite image group composed of a plurality of composite images from the non-irradiation area and the irradiation area extracted from the first and second measurement image groups, the contrast included in the range of angle of view in the composite image is A high part or a part having a local feature may be not irradiated with pattern light. Therefore, even if the range of the angle of view has a high contrast or includes a portion having a local feature, it is possible to obtain a high-quality composite image that does not include moire, etc., and therefore, corresponding points can be obtained accurately. As a result, the three-dimensional shape of the subject can be accurately measured.

以下、図面を参照して本発明の実施形態について説明する。図1は本発明の第1の実施形態による3次元形状計測用撮影装置を適用した3次元形状計測装置の外観斜視図である。図1に示すように本実施形態による3次元形状計測装置1は、第1のカメラ2、第2のカメラ3、プロジェクタ4、演算部5、モニタ6および入力部7を備える。   Hereinafter, embodiments of the present invention will be described with reference to the drawings. FIG. 1 is an external perspective view of a three-dimensional shape measuring apparatus to which a three-dimensional shape measuring photographing apparatus according to the first embodiment of the present invention is applied. As shown in FIG. 1, the three-dimensional shape measuring apparatus 1 according to the present embodiment includes a first camera 2, a second camera 3, a projector 4, a calculation unit 5, a monitor 6, and an input unit 7.

第1および第2のカメラ2,3は、所定間隔を空けかつ所定の輻輳角を持って配置されており、演算部5からの指示に応じて、被写体をそれぞれ異なる位置から撮影することにより、被写体の3次元形状の計測に使用する画像をそれぞれ取得する。なお、取得した画像は演算部5に入力されて、被写体の3次元形状の計測に用いられる。なお、第1および第2のカメラ2,3が撮影手段に相当する。   The first and second cameras 2 and 3 are arranged with a predetermined interval and a predetermined convergence angle, and in accordance with instructions from the calculation unit 5, by photographing the subject from different positions, Images used for measuring the three-dimensional shape of the subject are acquired. The acquired image is input to the calculation unit 5 and used for measuring the three-dimensional shape of the subject. The first and second cameras 2 and 3 correspond to photographing means.

プロジェクタ4は、演算部5からの指示により、格子状パターン等の所定のパターンからなるパターン光を被写体に向けて照射するためのものであり、LED等の光を発する光源11、および光源11から発せられた光をパターン光に変換するフィルタ部12を備える。なお、プロジェクタ4および後述する照射制御部21が照射手段に相当する。   The projector 4 is for irradiating a subject with pattern light having a predetermined pattern such as a lattice pattern in accordance with an instruction from the calculation unit 5. The projector 4 emits light such as an LED and the like from the light source 11 and the light source 11. A filter unit 12 is provided that converts emitted light into pattern light. In addition, the projector 4 and the irradiation control part 21 mentioned later correspond to an irradiation means.

フィルタ部12は、円盤12A上においてその中心を挟んだ対向する位置に、透過する光が所定パターンを有するものとなるようにパターンが印刷されたパターンフィルタ12Bおよび透明フィルタ12Cが取付けられることにより構成されている。なお、本実施形態においては、パターンとして格子状のパターンを用いるものとする。円盤12Aは、モータ12Dにより、その中心を通り光源11から発せられた光の光路X0に平行な回転軸の周囲に回転可能とされている。これにより、演算部5からの指示によって、パターンフィルタ12Bおよび透明フィルタ12Cを、光路X0上に切り替えて配置することが可能とされている。   The filter unit 12 is configured by attaching a pattern filter 12B and a transparent filter 12C on which a pattern is printed so that the transmitted light has a predetermined pattern at opposing positions on the disk 12A across the center. Has been. In the present embodiment, a grid pattern is used as the pattern. The disk 12A can be rotated around a rotation axis parallel to the optical path X0 of the light emitted from the light source 11 through the center thereof by the motor 12D. Thereby, according to the instruction | indication from the calculating part 5, it is possible to switch and arrange | position the pattern filter 12B and the transparent filter 12C on the optical path X0.

ここで、フィルタ部12に透明フィルタ12Cを設けることにより、被写体の光量が足りない場合に、プロジェクタ4から被写体に光を照射することができることとなる。   Here, by providing the filter 12 with the transparent filter 12C, the light can be emitted from the projector 4 to the subject when the amount of light of the subject is insufficient.

演算部5は、被写体の3次元形状の計測のために必要な演算を行うとともに、第1のカメラ2、第2のカメラ3およびプロジェクタ4の駆動を制御する。   The computing unit 5 performs computations necessary for measuring the three-dimensional shape of the subject and controls driving of the first camera 2, the second camera 3, and the projector 4.

図2は演算部5の構成を示す概略ブロック図である。図2に示すように演算部5は、プロジェクタ4の駆動を制御する照射制御部21、第1および第2のカメラ2,3の動作を制御する撮影制御部22、被写体への光の照射範囲を設定する範囲設定部23、被写体へのパターン光照射の有無を判定する判定部24、第1および第2のカメラ2,3が取得した画像を用いて被写体の3次元形状を計測する計測部25、第1および第2のカメラ2,3が取得した画像の画像ファイルを生成するファイル生成部26、画像ファイルを不図示のメディアに記録する記録部27、および演算部5の全体の動作を制御する全体制御部28を備え、照射制御部21、撮影制御部22、範囲設定部23、判定部24、計測部25、ファイル生成部26、記録部27および全体制御部28が、モニタ6および入力部7とともにバス29により接続されている。   FIG. 2 is a schematic block diagram showing the configuration of the calculation unit 5. As shown in FIG. 2, the calculation unit 5 includes an irradiation control unit 21 that controls the driving of the projector 4, a shooting control unit 22 that controls the operation of the first and second cameras 2 and 3, and an irradiation range of light on the subject. A range setting unit 23 for setting the object, a determination unit 24 for determining the presence or absence of pattern light irradiation on the subject, and a measurement unit for measuring the three-dimensional shape of the subject using the images acquired by the first and second cameras 2 and 3 25, the file generation unit 26 that generates an image file of an image acquired by the first and second cameras 2 and 3, the recording unit 27 that records the image file on a medium (not shown), and the overall operation of the calculation unit 5. An overall control unit 28 for controlling, the irradiation control unit 21, the imaging control unit 22, the range setting unit 23, the determination unit 24, the measurement unit 25, the file generation unit 26, the recording unit 27, and the overall control unit 28. Input section It is connected by a bus 29 with.

全体制御部28は、CPU28A、作業領域となるRAM28Bおよび操作/制御プログラムを含む各種情報が記憶されているROM28Cからなる。   The overall control unit 28 includes a CPU 28A, a RAM 28B as a work area, and a ROM 28C in which various information including an operation / control program is stored.

照射制御部21は、全体制御部28からの指示により、光源11のオン、オフを制御する。また、全体制御部28からの指示に応じて、フィルタ部12のパターンフィルタ12Bおよび透明フィルタ12Cのいずれかを光路X0上に位置せしめるために、モータ12Dを回転する指示を行う。   The irradiation control unit 21 controls on / off of the light source 11 according to an instruction from the overall control unit 28. Further, in response to an instruction from the overall control unit 28, an instruction to rotate the motor 12D is issued in order to position either the pattern filter 12B or the transparent filter 12C of the filter unit 12 on the optical path X0.

撮影制御部22は、入力部7から3次元形状計測の指示がなされている場合、被写体を撮影して3次元形状計測用の画像を取得する指示を第1および第2のカメラ2,3に対して行う。また、3次元形状計測用の画像の取得前に、プレ画像を取得する指示を第1のカメラ2に対して行う。さらに、パターン光非照射の撮影およびパターン光照射の撮影を行う指示を、第1および第2のカメラ2,3に対して行う。   When an instruction for 3D shape measurement is given from the input unit 7, the imaging control unit 22 instructs the first and second cameras 2 and 3 to capture an image of the subject and acquire an image for measuring the 3D shape. Against. In addition, an instruction to acquire a pre-image is given to the first camera 2 before acquiring an image for three-dimensional shape measurement. Further, the first and second cameras 2 and 3 are instructed to perform imaging without pattern light irradiation and imaging with pattern light irradiation.

範囲設定部23は、プレ画像上にプロジェクタ4から発せられる光を照射する範囲を設定する。図3は光の照射範囲の設定を説明するための図である。図3に示すように範囲設定部23は、プレ画像上に4×4=16の領域からなる照射範囲R0を設定する。ここで、照射範囲R0内の各領域は、図3に示すようにxy座標系を設定した場合の座標値によりその位置を特定するものとする。   The range setting unit 23 sets a range in which the light emitted from the projector 4 is irradiated on the pre-image. FIG. 3 is a diagram for explaining the setting of the light irradiation range. As illustrated in FIG. 3, the range setting unit 23 sets an irradiation range R0 including 4 × 4 = 16 areas on the pre-image. Here, the position of each region in the irradiation range R0 is specified by the coordinate value when the xy coordinate system is set as shown in FIG.

なお、照射範囲R0の位置および分割数はこれに限定されるものではなく、例えば、図4(a)、(b)に示すように照射範囲R0を狭くしたり、図4(c)に示すように分割数を2×2としたりしてもよい。なお、照射範囲R0はユーザによる入力部7からの指示によりあらかじめ設定されたものであってもよく、プレ画像をモニタ6に表示し、表示されたプレ画像をユーザが見ながら設定したものであってもよい。   Note that the position and the number of divisions of the irradiation range R0 are not limited to this, and for example, the irradiation range R0 is narrowed as shown in FIGS. 4A and 4B, or as shown in FIG. Thus, the number of divisions may be 2 × 2. The irradiation range R0 may be set in advance by an instruction from the input unit 7 by the user, and is set by displaying a pre-image on the monitor 6 and viewing the displayed pre-image by the user. May be.

判定部24は、プレ画像に設定された照射範囲R0の各領域において、パターン光照射の有無を判定するための評価値を算出する。具体的には、判定部24は、領域内の画像に含まれるエッジを微分フィルタ等を用いた演算により検出し、検出したエッジの本数を評価値として用いる。なお、領域内の画像のコントラストを検出し、検出したコントラストを評価値として用いるようにしてもよい。   The determination unit 24 calculates an evaluation value for determining the presence or absence of pattern light irradiation in each region of the irradiation range R0 set in the pre-image. Specifically, the determination unit 24 detects edges included in the image in the region by calculation using a differential filter or the like, and uses the number of detected edges as an evaluation value. Note that the contrast of the image in the region may be detected, and the detected contrast may be used as the evaluation value.

ここで、領域内の画像にエッジが少ない場合は評価値は低くなる。また、領域内の画像のコントラストが低い場合も評価値は低くなる。このように領域内の画像の評価値が低い場合は、後述するように3次元形状を計測するための対応点を精度よく求めることができない。このため、判定部24は、評価値をしきい値Th1と比較し、評価値がしきい値Th1を超える場合に、その領域についてはパターン光を照射しない非照射領域と判定する。一方、評価値がしきい値Th1以下の場合に、その領域についてはパターン光を照射する照射領域と判定する。   Here, the evaluation value is low when the image in the region has few edges. The evaluation value also decreases when the contrast of the image in the region is low. Thus, when the evaluation value of the image in the region is low, it is not possible to accurately obtain corresponding points for measuring the three-dimensional shape as will be described later. For this reason, the determination unit 24 compares the evaluation value with the threshold value Th1, and when the evaluation value exceeds the threshold value Th1, the determination unit 24 determines that the region is a non-irradiation region where pattern light is not irradiated. On the other hand, when the evaluation value is equal to or less than the threshold value Th1, the region is determined as an irradiation region to which pattern light is irradiated.

例えば、図3に示すように照射範囲R0が設定されている場合において、(1,1)、(1,2)および(4,4)の位置の領域にパターンを照射すると判定部24が判定した場合、図5に示すように(1,1)、(1,2)および(4,4)の位置の領域が照射領域、それ以外の位置の領域が非照射領域となる。なお、図5においては照射領域に○を、非照射領域に×を付与している。   For example, in the case where the irradiation range R0 is set as shown in FIG. 3, the determination unit 24 determines that the pattern is irradiated to the regions at the positions (1, 1), (1, 2), and (4, 4). In this case, as shown in FIG. 5, the areas at the positions (1, 1), (1, 2) and (4, 4) are the irradiation areas, and the areas at the other positions are the non-irradiation areas. In FIG. 5, “◯” is given to the irradiated region and “X” is given to the non-irradiated region.

計測部25は、パターン光が照射されていない被写体を撮影することにより第1および第2のカメラ2,3が取得した非照射基準画像G1および非照射参照画像G2、並びにパターン光が照射された被写体を撮影することにより第1および第2のカメラ2,3が取得した照射基準画像G1′および照射参照画像G2′に基づいて、被写体の3次元形状を計測する。なお、非照射基準画像G1および非照射参照画像G2が第1の計測用画像に、照射基準画像G1′および照射参照画像G2′が第2の計測用画像に相当する。   The measurement unit 25 is irradiated with the non-irradiation reference image G1 and the non-irradiation reference image G2 acquired by the first and second cameras 2 and 3 and the pattern light by photographing a subject that is not irradiated with the pattern light. The three-dimensional shape of the subject is measured based on the irradiation reference image G1 ′ and the irradiation reference image G2 ′ acquired by the first and second cameras 2 and 3 by photographing the subject. The non-irradiation standard image G1 and the non-irradiation reference image G2 correspond to the first measurement image, and the irradiation standard image G1 ′ and the irradiation reference image G2 ′ correspond to the second measurement image.

なお、3次元形状を計測する際には対応点が求められるが、対応点を求める画素が非照射領域にある場合には、非照射基準画像G1および非照射参照画像G2上にマッチングウィンドウを設定し、エピポーラ線の情報を用いて、非照射基準画像G1および非照射参照画像G2上の画素の対応付けを行って対応点を求める。一方、対応点を求める画素が照射領域にある場合には、照射基準画像G1′および照射参照画像G2′上にマッチングウィンドウを設定し、エピポーラ線の情報を用いて、照射基準画像G1′および照射参照画像G2′上の画素の対応付けを行って対応点を求める。   Note that, when measuring a three-dimensional shape, a corresponding point is obtained, but when a pixel for which the corresponding point is obtained is in a non-irradiation region, a matching window is set on the non-irradiation reference image G1 and the non-irradiation reference image G2. Then, using the information on the epipolar line, the pixels on the non-irradiation reference image G1 and the non-irradiation reference image G2 are associated to obtain corresponding points. On the other hand, if the pixel for which the corresponding point is to be found is in the irradiation area, a matching window is set on the irradiation reference image G1 ′ and the irradiation reference image G2 ′, and information on the epipolar line is used to set the irradiation reference image G1 ′ and the irradiation reference image. Corresponding points are obtained by associating pixels on the reference image G2 ′.

ここで、計測部25は、第1および第2のカメラ2,3のレンズの光路と撮像面との位置関係を表す内部パラメータ、並びに第1および第2のカメラ2,3の位置関係を表す外部パラメータをROM28Cに記憶しており、内部パラメータおよび外部パラメータを参照して画素の対応付けを行って対応点を求める。なお、内部パラメータおよび外部パラメータは、あらかじめカメラキャリブレーションにより求められ、ROM28Cに記憶されている。そして、計測部25は、画素の対応付けが終了すると、対応点に基づいて被写体の3次元形状を算出し、算出結果を距離画像としてモニタ6に出力する。   Here, the measuring unit 25 represents an internal parameter representing the positional relationship between the optical paths of the lenses of the first and second cameras 2 and 3 and the imaging surface, and the positional relationship between the first and second cameras 2 and 3. External parameters are stored in the ROM 28C, and corresponding points are obtained by associating pixels with reference to internal parameters and external parameters. The internal parameters and external parameters are obtained in advance by camera calibration and stored in the ROM 28C. Then, when the pixel association is completed, the measurement unit 25 calculates the three-dimensional shape of the subject based on the corresponding points, and outputs the calculation result to the monitor 6 as a distance image.

ファイル生成部26は、非照射基準画像G1および非照射参照画像G2並びに照射基準画像G1′および照射参照画像G2′を表す画像データに対して、例えば、JPEG等の圧縮形式で圧縮処理を行い、画像ファイルを生成する。この画像ファイルは、非照射基準画像G1および非照射参照画像G2並びに照射基準画像G1′および照射参照画像G2′を表す画像データを含むものとなる。また、この画像ファイルには、Exifフォーマット等に基づいて、撮影日時等の付帯情報が格納されたタグが付与される。また、本実施形態においては、タグには、照射範囲R0内における非照射領域および照射領域の位置を特定する情報が記述される。   The file generation unit 26 performs compression processing on the non-irradiation standard image G1 and the non-irradiation reference image G2 and the image data representing the irradiation standard image G1 ′ and the irradiation reference image G2 ′ in a compression format such as JPEG, for example. Generate an image file. The image file includes image data representing the non-irradiation standard image G1 and the non-irradiation reference image G2, and the irradiation standard image G1 ′ and the irradiation reference image G2 ′. In addition, a tag in which incidental information such as shooting date and time is stored is assigned to the image file based on the Exif format or the like. In the present embodiment, the tag describes information for specifying the position of the non-irradiation region and the irradiation region within the irradiation range R0.

記録部27は、ファイル生成部26が生成した画像ファイルをメディアに記録する。   The recording unit 27 records the image file generated by the file generation unit 26 on a medium.

次いで、第1の実施形態において行われる処理について説明する。図6は第1の実施形態において行われる処理を示すフローチャートである。まず、全体制御部28が、3次元形状計測のための撮影の指示がなされているか否かを監視しており(ステップST1)、ステップST1が肯定されると、第1のカメラ2がプレ画像を取得し(ステップST2)、範囲設定部23がプレ画像に照射範囲R0を設定する(ステップST3)。   Next, processing performed in the first embodiment will be described. FIG. 6 is a flowchart showing processing performed in the first embodiment. First, the overall control unit 28 monitors whether or not an instruction for photographing for measuring a three-dimensional shape is given (step ST1), and when the step ST1 is affirmed, the first camera 2 performs a pre-image. (Step ST2), the range setting unit 23 sets the irradiation range R0 in the pre-image (step ST3).

そして、全体制御部28が、照射範囲R0内の領域のうち判定の対象とする領域を最初の領域に設定し(i=1,ステップST4)、判定部24が対象の領域の評価値を算出し(ステップST5)、評価値がしきい値Th1以下であるか否かを判定する(ステップST6)。ステップST6が肯定されると、判定部24は、その領域を照射領域に設定する(ステップST7)。ステップST6が否定されると、判定部24は、その領域を非照射領域に設定する(ステップST8)。   Then, the overall control unit 28 sets the determination target region among the regions within the irradiation range R0 as the first region (i = 1, step ST4), and the determination unit 24 calculates the evaluation value of the target region. Then, it is determined whether or not the evaluation value is equal to or less than the threshold value Th1 (step ST6). If step ST6 is affirmed, the determination unit 24 sets the region as an irradiation region (step ST7). If step ST6 is negative, the determination unit 24 sets the area as a non-irradiation area (step ST8).

そして、全体制御部28がすべての領域について判定を行ったか否かを判定し(ステップST9)、ステップST9が否定されると、判定の対象を次の領域に変更し(i=i+1、ステップST10)、ステップST5の処理に戻る。   Then, it is determined whether or not the overall control unit 28 has made the determination for all regions (step ST9). If step ST9 is negative, the determination target is changed to the next region (i = i + 1, step ST10). ), The process returns to step ST5.

ステップST9が肯定されると、撮影制御部22が第1および第2のカメラ2,3により撮影を行う(非照射撮影、ステップST11)。これにより、非照射基準画像G1および非照射参照画像G2が取得される。   If step ST9 is affirmed, the imaging control unit 22 performs imaging with the first and second cameras 2 and 3 (non-irradiation imaging, step ST11). Thereby, the non-irradiation standard image G1 and the non-irradiation reference image G2 are acquired.

次いで、照射制御部21がプロジェクタ4に対するパターン光発光の設定を行う(ステップST12)。すなわち、照射制御部21が、光源11をオンとし、パターンフィルタ12Bが光源11から発せられる光の光路X0上に位置するようにフィルタ部12を回転させる指示を、モータ12Dに対して行う。これにより、光源11から発せられた光は、パターンフィルタ12Bによりパターン光に変換されて被写体に照射される。被写体において反射されたパターン光は、第1および第2のカメラ2,3に入射する。   Next, the irradiation control unit 21 sets pattern light emission for the projector 4 (step ST12). That is, the irradiation control unit 21 turns on the light source 11 and instructs the motor 12D to rotate the filter unit 12 so that the pattern filter 12B is positioned on the optical path X0 of the light emitted from the light source 11. As a result, the light emitted from the light source 11 is converted into pattern light by the pattern filter 12B and irradiated to the subject. The pattern light reflected from the subject is incident on the first and second cameras 2 and 3.

そして、撮影制御部22が第1および第2のカメラ2,3により撮影を行う(照射撮影、ステップST13)。これにより、照射基準画像G1′および照射参照画像G2′が取得される。そして、ファイル生成部26が、非照射基準画像G1および非照射参照画像G2並びに照射基準画像G1′および照射参照画像G2′を表す画像データから画像ファイルを生成する(ステップST14)。なお、画像ファイルのタグには、照射範囲R0内における非照射領域および照射領域の位置を特定する情報が記述される。そして、記録部27が画像ファイルをメディアに記録し(ステップST15)、処理を終了する。   And the imaging | photography control part 22 image | photographs with the 1st and 2nd cameras 2 and 3 (irradiation imaging | photography, step ST13). Thereby, the irradiation standard image G1 ′ and the irradiation reference image G2 ′ are acquired. Then, the file generation unit 26 generates an image file from the image data representing the non-irradiation standard image G1 and the non-irradiation reference image G2, and the irradiation standard image G1 ′ and the irradiation reference image G2 ′ (step ST14). Note that information specifying the positions of the non-irradiation region and the irradiation region in the irradiation range R0 is described in the tag of the image file. Then, the recording unit 27 records the image file on the medium (step ST15), and the process ends.

このように、第1の実施形態においては、プレ画像上に複数の領域からなる照射範囲R0を設定し、照射範囲R0内の領域毎にパターン光照射の有無を判定するようにしたため、非照射基準画像G1および非照射参照画像G2とともに、パターン光を照射して被写体の撮影を行って照射基準画像G1′および照射参照画像G2′を取得し、計測部25において、判定結果に基づいて、画角の範囲にコントラストが高い部分や、局所的な特徴を有する部分については照射基準画像G1′および照射参照画像G2′を、それ以外の部分については非照射基準画像G1および非照射参照画像G2を用いて対応点を探索することにより、モアレ等を含まない高画質の画像を用いて対応点を精度よく求めることができ、その結果、被写体の3次元形状を精度よく計測することができる。   Thus, in the first embodiment, the irradiation range R0 including a plurality of regions is set on the pre-image, and the presence / absence of pattern light irradiation is determined for each region within the irradiation range R0. Along with the reference image G1 and the non-irradiation reference image G2, the subject is photographed by irradiating pattern light to obtain an irradiation reference image G1 ′ and an irradiation reference image G2 ′. The irradiation standard image G1 ′ and the irradiation reference image G2 ′ are used for a portion having a high contrast in the corner range and a portion having a local feature, and the non-irradiation reference image G1 and the non-irradiation reference image G2 are used for other portions. By searching for corresponding points, it is possible to accurately obtain corresponding points using a high-quality image that does not include moire, etc. As a result, the three-dimensional shape of the subject can be determined. It is possible to measure a good time.

次いで、本発明の第2の実施形態について説明する。なお、第2の実施形態による3次元形状計測装置の構成は、上記第1の実施形態による3次元形状計測装置の構成と同一であるため、ここでは構成についての詳細な説明は省略する。第2の実施形態においては、プレ画像を取得することなく、先に非照射撮影および照射撮影を行い、判定部24が、非照射基準画像G1および非照射参照画像G2のいずれか一方を用いて判定を行うようにした点が第1の実施形態と異なる。なお、第2の実施形態においては、非照射基準画像G1を用いて判定を行うものとする。   Next, a second embodiment of the present invention will be described. Note that the configuration of the three-dimensional shape measurement apparatus according to the second embodiment is the same as the configuration of the three-dimensional shape measurement apparatus according to the first embodiment, and a detailed description thereof will be omitted here. In the second embodiment, non-irradiation imaging and irradiation imaging are performed first without acquiring a pre-image, and the determination unit 24 uses either one of the non-irradiation reference image G1 and the non-irradiation reference image G2. The difference from the first embodiment is that the determination is made. In the second embodiment, the determination is performed using the non-irradiation reference image G1.

次いで、第2の実施形態において行われる処理について説明する。図7は第2の実施形態において行われる処理を示すフローチャートである。まず、全体制御部28が、3次元形状計測のための撮影の指示がなされているか否かを監視しており(ステップST21)、ステップST21が肯定されると、撮影制御部22が第1および第2のカメラ2,3により撮影を行う(非照射撮影、ステップST22)。これにより、非照射基準画像G1および非照射参照画像G2が取得される。   Next, processing performed in the second embodiment will be described. FIG. 7 is a flowchart showing processing performed in the second embodiment. First, the overall control unit 28 monitors whether or not an instruction for imaging for measuring a three-dimensional shape is given (step ST21). When step ST21 is affirmed, the imaging control unit 22 performs first and second imaging operations. Photographing is performed by the second cameras 2 and 3 (non-irradiation photographing, step ST22). Thereby, the non-irradiation standard image G1 and the non-irradiation reference image G2 are acquired.

次いで、照射制御部21がプロジェクタ4に対するパターン光発光の設定を行い(ステップST23)、撮影制御部22が第1および第2のカメラ2,3により撮影を行う(照射撮影、ステップST24)。これにより、照射基準画像G1′および照射参照画像G2′が取得される。   Next, the irradiation control unit 21 sets the pattern light emission for the projector 4 (step ST23), and the shooting control unit 22 performs shooting with the first and second cameras 2 and 3 (irradiation shooting, step ST24). Thereby, the irradiation standard image G1 ′ and the irradiation reference image G2 ′ are acquired.

次いで、範囲設定部23が非照射基準画像G1に照射範囲R0を設定する(ステップST25)。そして、全体制御部28が、照射範囲R0内の領域のうち判定の対象とする領域を最初の領域に設定し(i=1,ステップST26)、判定部24が対象の領域の評価値を算出し(ステップST27)、評価値がしきい値Th1以下であるか否かを判定する(ステップST28)。ステップST28が肯定されると、判定部24は、その領域を照射領域に設定する(ステップST29)。ステップST28が否定されると、判定部24は、その領域を非照射領域に設定する(ステップST30)。   Next, the range setting unit 23 sets the irradiation range R0 in the non-irradiation reference image G1 (step ST25). Then, the overall control unit 28 sets the region to be determined as the first region among the regions within the irradiation range R0 (i = 1, step ST26), and the determination unit 24 calculates the evaluation value of the target region. Then, it is determined whether or not the evaluation value is equal to or less than the threshold value Th1 (step ST28). If step ST28 is affirmed, the determination unit 24 sets the region as an irradiation region (step ST29). If step ST28 is negative, the determination unit 24 sets the area as a non-irradiation area (step ST30).

そして、全体制御部28がすべての領域について判定を行ったか否かを判定し(ステップST31)、ステップST31が否定されると、判定の対象を次の領域に変更し(i=i+1、ステップST32)、ステップST27の処理に戻る。   Then, it is determined whether or not the overall control unit 28 has made the determination for all regions (step ST31). If step ST31 is negative, the determination target is changed to the next region (i = i + 1, step ST32). ), The process returns to step ST27.

ステップST31が肯定されると、ファイル生成部26が、非照射基準画像G1および非照射参照画像G2並びに照射基準画像G1′および照射参照画像G2′を表す画像データから画像ファイルを生成する(ステップST33)。なお、画像ファイルのタグには、照射範囲R0内における非照射領域および照射領域の位置を特定する情報が記述される。そして、記録部27が画像ファイルをメディアに記録し(ステップST34)、処理を終了する。   If step ST31 is positive, the file generation unit 26 generates an image file from image data representing the non-irradiation standard image G1, the non-irradiation reference image G2, and the irradiation standard image G1 ′ and the irradiation reference image G2 ′ (step ST33). ). Note that information specifying the positions of the non-irradiation region and the irradiation region in the irradiation range R0 is described in the tag of the image file. Then, the recording unit 27 records the image file on the medium (step ST34), and the process ends.

なお、上記第2の実施形態においては、非照射基準画像G1を用いて判定を行っているが、非照射参照画像G2を用いて判定を行うようにしてもよい。   In the second embodiment, the determination is performed using the non-irradiation reference image G1, but the determination may be performed using the non-irradiation reference image G2.

次いで、本発明の第3の実施形態について説明する。なお、第3の実施形態による3次元形状計測装置の構成は、上記第1の実施形態による3次元形状計測装置の構成と同一であるため、ここでは構成についての詳細な説明は省略する。第3の実施形態においては、判定部24が、プレ画像を取得することなく、先に非照射撮影を行って非照射基準画像G1および非照射参照画像G2を取得し、非照射基準画像G1および非照射参照画像G2のいずれか一方を用いて判定を行い、必要な場合にのみ照射撮影を行うようにした点が第1の実施形態と異なる。なお、第3の実施形態においては、非照射基準画像G1を用いて判定を行うものとする。   Next, a third embodiment of the present invention will be described. Note that the configuration of the three-dimensional shape measurement apparatus according to the third embodiment is the same as the configuration of the three-dimensional shape measurement apparatus according to the first embodiment, and a detailed description thereof will be omitted here. In the third embodiment, the determination unit 24 obtains the non-irradiation standard image G1 and the non-irradiation reference image G2 by performing the non-irradiation photographing first without acquiring the pre-image, and the non-irradiation standard image G1 and This is different from the first embodiment in that determination is performed using any one of the non-irradiation reference images G2 and irradiation imaging is performed only when necessary. In the third embodiment, the determination is made using the non-irradiation reference image G1.

次いで、第3の実施形態において行われる処理について説明する。図8は第3の実施形態において行われる処理を示すフローチャートである。まず、全体制御部28が、3次元形状計測のための撮影の指示がなされているか否かを監視しており(ステップST41)、ステップST41が肯定されると、撮影制御部22が第1および第2のカメラ2,3により撮影を行う(非照射撮影、ステップST42)。これにより、非照射基準画像G1および非照射参照画像G2が取得される。   Next, processing performed in the third embodiment will be described. FIG. 8 is a flowchart showing processing performed in the third embodiment. First, the overall control unit 28 monitors whether or not a shooting instruction for three-dimensional shape measurement is given (step ST41). If step ST41 is affirmed, the shooting control unit 22 performs first and second shootings. Photographing is performed by the second cameras 2 and 3 (non-irradiation photographing, step ST42). Thereby, the non-irradiation standard image G1 and the non-irradiation reference image G2 are acquired.

次いで、範囲設定部23が非照射基準画像G1に照射範囲R0を設定する(ステップST43)。そして、全体制御部28が、照射範囲R0内の領域のうち判定の対象とする領域を最初の領域に設定し(i=1,ステップST44)、判定部24が対象の領域の評価値を算出し(ステップST45)、評価値がしきい値Th1以下であるか否かを判定する(ステップST46)。ステップST46が肯定されると、判定部24は、その領域を照射領域に設定する(ステップST47)。ステップST46が否定されると、判定部24は、その領域を非照射領域に設定する(ステップST48)。   Next, the range setting unit 23 sets the irradiation range R0 in the non-irradiation reference image G1 (step ST43). Then, the overall control unit 28 sets the determination target region among the regions within the irradiation range R0 as the first region (i = 1, step ST44), and the determination unit 24 calculates the evaluation value of the target region. Then, it is determined whether or not the evaluation value is equal to or less than the threshold value Th1 (step ST46). If step ST46 is affirmed, the determination unit 24 sets the region as an irradiation region (step ST47). If step ST46 is negative, the determination unit 24 sets the area as a non-irradiation area (step ST48).

そして、全体制御部28がすべての領域について判定を行ったか否かを判定し(ステップST49)、ステップST49が否定されると、判定の対象を次の領域に変更し(i=i+1、ステップST50)、ステップST45の処理に戻る。   Then, it is determined whether or not the overall control unit 28 has made the determination for all regions (step ST49). If step ST49 is negative, the determination target is changed to the next region (i = i + 1, step ST50). ), The process returns to step ST45.

ステップST49が肯定されると、パターン光を照射する必要があるか否かを判定する(ステップST51)。ここで、すべての領域が非照射領域に設定された場合、パターン光を照射する必要がないため、ステップST51は否定されるが、照射領域に設定された領域が1つでもある場合、ステップST51は肯定される。ステップST51が肯定されると、照射制御部21がプロジェクタ4に対するパターン光発光の設定を行い(ステップST52)、撮影制御部22が第1および第2のカメラ2,3により撮影を行う(照射撮影、ステップST53)。これにより、照射基準画像G1′および照射参照画像G2′が取得される。そして、ファイル生成部26が、非照射基準画像G1および非照射参照画像G2並びに照射基準画像G1′および照射参照画像G2′を表す画像データから画像ファイルを生成する(ステップST54)。なお、画像ファイルのタグには、照射範囲R0内における非照射領域および照射領域の位置を特定する情報が記述される。そして、記録部27が画像ファイルをメディアに記録し(ステップST55)、処理を終了する。   If step ST49 is affirmed, it is determined whether pattern light needs to be irradiated (step ST51). Here, when all the areas are set as non-irradiation areas, it is not necessary to irradiate the pattern light, so step ST51 is denied. However, when there is even one area set as the irradiation area, step ST51 is performed. Is affirmed. If step ST51 is affirmed, the irradiation control unit 21 sets pattern light emission for the projector 4 (step ST52), and the imaging control unit 22 performs imaging with the first and second cameras 2 and 3 (irradiation imaging). Step ST53). Thereby, the irradiation standard image G1 ′ and the irradiation reference image G2 ′ are acquired. Then, the file generation unit 26 generates an image file from the image data representing the non-irradiation standard image G1 and the non-irradiation reference image G2, and the irradiation standard image G1 ′ and the irradiation reference image G2 ′ (step ST54). Note that information specifying the positions of the non-irradiation region and the irradiation region in the irradiation range R0 is described in the tag of the image file. Then, the recording unit 27 records the image file on the medium (step ST55), and the process ends.

一方、ステップST51が否定されると、ステップST54の処理に進む。この場合、ファイル生成部26は、非照射基準画像G1および非照射参照画像G2を表す画像データから画像ファイルを生成し、画像ファイルのタグには、照射範囲R0内における非照射領域のみの位置を特定する情報が記述される。   On the other hand, if step ST51 is negative, the process proceeds to step ST54. In this case, the file generation unit 26 generates an image file from the image data representing the non-irradiation reference image G1 and the non-irradiation reference image G2, and the position of only the non-irradiation region in the irradiation range R0 is set as a tag of the image file. Information to be identified is described.

なお、上記第1の実施形態においては照射撮影を行っているが、プレ画像を用いての判定結果に基づいてパターン光の照射が必要か否かを判定し、パターン光の照射が必要であると判定された場合にのみ、照射撮影を行うようにしてもよい。   In the first embodiment, irradiation shooting is performed. However, it is determined whether pattern light irradiation is necessary based on a determination result using a pre-image, and pattern light irradiation is necessary. Irradiation photography may be performed only when it is determined that.

次いで、本発明の第4の実施形態について説明する。なお、第4の実施形態においては、演算部5の構成のみが第1から第3の実施形態と異なるため、ここでは演算部5の構成についてのみ説明する。図9は本発明の第4の実施形態による3次元形状計測装置における演算部の構成を示す図である。図9に示すように第2の実施形態による3次元形状計測装置の演算部5Aは、非照射基準画像G1および照射基準画像G1′の合成画像C1、並びに非照射参照画像G2および照射参照画像G2′の合成画像C2を生成する合成部30を備えた点が第1から第3の実施形態と異なる。   Next, a fourth embodiment of the present invention will be described. In the fourth embodiment, since only the configuration of the calculation unit 5 is different from the first to third embodiments, only the configuration of the calculation unit 5 will be described here. FIG. 9 is a diagram showing a configuration of a calculation unit in the three-dimensional shape measurement apparatus according to the fourth embodiment of the present invention. As shown in FIG. 9, the calculation unit 5A of the three-dimensional shape measurement apparatus according to the second embodiment performs a composite image C1 of the non-irradiation standard image G1 and the irradiation standard image G1 ′, as well as the non-irradiation reference image G2 and the irradiation reference image G2. It differs from the first to third embodiments in that it includes a combining unit 30 that generates a composite image C2 ′.

次いで、第4の実施形態において行われる処理について説明する。なお、第4の実施形態においては、上記第1の実施形態におけるステップST13以降の処理が第1の実施形態と、第2の実施形態におけるステップST31が肯定された以降の処理が第2の実施形態と、第3の実施形態におけるステップST53以降の処理が第3の実施形態とそれぞれ異なるため、ここではこれらのステップ以降の処理についてのみ説明する。   Next, processing performed in the fourth embodiment will be described. In the fourth embodiment, the process after step ST13 in the first embodiment is the second embodiment, and the process after step ST31 in the second embodiment is affirmed. Since the form and the processing after step ST53 in the third embodiment are different from those of the third embodiment, only the processing after these steps will be described here.

第1の実施形態におけるステップST13、第2の実施形態におけるステップST31(肯定された場合)、第3の実施形態におけるステップST53に続いて、合成部30が非照射基準画像G1および照射基準画像G1′の合成画像C1、並びに非照射参照画像G2および照射参照画像G2′の合成画像C2を生成する(ステップST71)。   Subsequent to step ST13 in the first embodiment, step ST31 in the second embodiment (when affirmed), and step ST53 in the third embodiment, the combining unit 30 performs the non-irradiation reference image G1 and the irradiation reference image G1. 'And a composite image C2 of the non-irradiation reference image G2 and the irradiation reference image G2' are generated (step ST71).

図11は合成画像の生成を説明するための図である。なお、非照射基準画像G1および照射基準画像G1′からの合成画像C1の生成、および非照射参照画像G2および照射参照画像G2′からの合成画像C2の生成の処理は同一であるため、ここでは、非照射基準画像G1および照射基準画像G1′からの合成画像C1の生成についてのみ説明する。   FIG. 11 is a diagram for explaining generation of a composite image. Note that the process of generating the composite image C1 from the non-irradiation standard image G1 and the irradiation standard image G1 ′ and the process of generating the composite image C2 from the non-irradiation reference image G2 and the irradiation reference image G2 ′ are the same. Only the generation of the composite image C1 from the non-irradiation reference image G1 and the irradiation reference image G1 ′ will be described.

まず、合成部30は、非照射基準画像G1における照射範囲R0に対応する複数の領域のうち、非照射領域に設定された領域を抽出する。例えば、図5に示すように照射領域および非照射領域が設定された場合、非照射基準画像G1における(1,1)、(1,2)および(4,4)の位置の領域以外の太線で囲まれた領域を抽出する。また、合成部30は、照射基準画像G1′における照射範囲R0に対応する複数の領域のうち、照射領域に設定された領域を抽出する。例えば、図5に示すように照射領域および非照射領域が設定された場合、照射基準画像G1′における太線で囲まれた(1,1)、(1,2)および(4,4)の位置の領域を抽出する。そして、合成部30は、抽出した領域を合成して合成画像C1を生成する。なお、非照射基準画像G1と照射基準画像G1′とは、異なる時点において撮影を行っているため、非照射基準画像G1と照射基準画像G1′との撮影時における画角のずれ等を補正した後に、非照射領域および照射領域の抽出並びに合成を行うことが好ましい。   First, the synthesis unit 30 extracts a region set as a non-irradiation region among a plurality of regions corresponding to the irradiation range R0 in the non-irradiation reference image G1. For example, when the irradiation region and the non-irradiation region are set as shown in FIG. 5, the thick lines other than the regions at the positions (1, 1), (1, 2) and (4, 4) in the non-irradiation reference image G1. Extract the area surrounded by. The synthesizing unit 30 extracts a region set as the irradiation region among a plurality of regions corresponding to the irradiation range R0 in the irradiation reference image G1 ′. For example, when the irradiation region and the non-irradiation region are set as shown in FIG. 5, the positions of (1, 1), (1, 2), and (4, 4) surrounded by a thick line in the irradiation reference image G1 ′ Extract the region. Then, the combining unit 30 combines the extracted regions to generate a combined image C1. Since the non-irradiation reference image G1 and the irradiation reference image G1 ′ are taken at different points in time, the deviation of the angle of view at the time of shooting between the non-irradiation reference image G1 and the irradiation reference image G1 ′ is corrected. It is preferable to perform extraction and synthesis of the non-irradiated region and the irradiated region later.

なお、非照射参照画像G2および照射参照画像G2′からも同様に合成画像C2を生成する。ここで、照射範囲R0は、プレ画像または非照射基準画像G1に設定しているため、非照射参照画像G2または照射参照画像G2′上に、プレ画像または非照射基準画像G1上に設定した照射範囲R0に対応する領域を設定し、設定した領域内における非照射領域および照射領域に対応する領域を抽出して合成画像C2を生成すればよい。   A composite image C2 is similarly generated from the non-irradiation reference image G2 and the irradiation reference image G2 ′. Here, since the irradiation range R0 is set to the pre-image or the non-irradiation reference image G1, the irradiation set on the pre-image or the non-irradiation reference image G1 on the non-irradiation reference image G2 or the irradiation reference image G1 ′. An area corresponding to the range R0 may be set, and a non-irradiation area and an area corresponding to the irradiation area in the set area may be extracted to generate the composite image C2.

次いで、ファイル生成部26が、合成画像C1,C2を表す画像データから画像ファイルを生成する(ステップST72)。そして、記録部27が画像ファイルをメディアに記録し(ステップST73)、処理を終了する。   Next, the file generation unit 26 generates an image file from the image data representing the composite images C1 and C2 (step ST72). Then, the recording unit 27 records the image file on the medium (step ST73), and the process ends.

このように第4の実施形態においては、非照射基準画像G1および非照射参照画像G2から非照射領域を抽出し、照射基準画像G1′および照射参照画像G2′から照射領域を抽出し、抽出した領域を合成して合成画像C1,C2を生成するようにしたものである。このため、合成画像C1,C2においては、画角の範囲に含まれるコントラストが高い部分や、局所的な特徴を有する部分には、パターン光が照射されていないものとすることができる。したがって、画角の範囲にコントラストが高かったり、局所的な特徴を有する部分を含む場合であっても、モアレ等を含まない高画質の合成画像C1,C2を取得できるため、対応点を精度よく求めることができ、その結果、被写体の3次元形状を精度よく計測することができる。   As described above, in the fourth embodiment, the non-irradiation region is extracted from the non-irradiation standard image G1 and the non-irradiation reference image G2, and the irradiation region is extracted from the irradiation standard image G1 ′ and the irradiation reference image G2 ′. The synthesized images C1 and C2 are generated by combining the regions. For this reason, in the synthesized images C1 and C2, it is possible that the portion with high contrast included in the range of the angle of view or the portion having local features is not irradiated with the pattern light. Therefore, even if the range of the angle of view has a high contrast or includes a portion having a local feature, it is possible to acquire high-quality composite images C1 and C2 that do not include moire or the like, so that the corresponding points can be accurately obtained. As a result, the three-dimensional shape of the subject can be accurately measured.

また、第4の実施形態においては、画像ファイルの生成に使用される画像は、合成画像C1,C2のみであるため、第1から第3の実施形態と比較して画像ファイルの容量を低減することができる。   In the fourth embodiment, since the images used for generating the image file are only the composite images C1 and C2, the capacity of the image file is reduced as compared with the first to third embodiments. be able to.

以上、本発明の実施形態に係る装置1について説明したが、コンピュータを、上記の撮影制御部22、範囲設定部23、判定部24、計測部25、ファイル生成部26および合成部30に対応する手段として機能させ、図6,7,8,10に示すような処理を行わせるプログラムも、本発明の実施形態の1つである。また、そのようなプログラムを記録したコンピュータ読取り可能な記録媒体も、本発明の実施形態の1つである。   Although the apparatus 1 according to the embodiment of the present invention has been described above, the computer corresponds to the imaging control unit 22, the range setting unit 23, the determination unit 24, the measurement unit 25, the file generation unit 26, and the synthesis unit 30 described above. A program that functions as means and performs processing as shown in FIGS. 6, 7, 8, and 10 is also one embodiment of the present invention. A computer-readable recording medium in which such a program is recorded is also one embodiment of the present invention.

本発明の第1の実施形態による3次元形状計測装置の外観斜視図1 is an external perspective view of a three-dimensional shape measuring apparatus according to a first embodiment of the present invention. 第1の実施形態における演算部の構成を示す概略ブロック図Schematic block diagram showing the configuration of the arithmetic unit in the first embodiment 光の照射範囲の設定を説明するための図The figure for demonstrating the setting of the irradiation range of light 光の照射範囲の設定の他の例を説明するための図The figure for demonstrating the other example of the setting of the irradiation range of light 非照射領域および照射領域の判定結果を示す図The figure which shows the judgment result of the non-irradiation field and the irradiation field 第1の実施形態において行われる処理を示すフローチャートThe flowchart which shows the process performed in 1st Embodiment. 第2の実施形態において行われる処理を示すフローチャートThe flowchart which shows the process performed in 2nd Embodiment. 第3の実施形態において行われる処理を示すフローチャートThe flowchart which shows the process performed in 3rd Embodiment 第4の実施形態における演算部の構成を示す概略ブロック図The schematic block diagram which shows the structure of the calculating part in 4th Embodiment 第4の実施形態において行われる処理を示すフローチャートThe flowchart which shows the process performed in 4th Embodiment 合成画像の生成を説明するための図Diagram for explaining generation of composite image 画素の対応付けを説明するための図The figure for demonstrating matching of a pixel

符号の説明Explanation of symbols

1 3次元形状計測装置
2,3 カメラ
4 プロジェクタ
5 演算部
6 モニタ
7 入力部
11 光源
12 フィルタ部
21 照射制御部
22 撮影制御部
23 範囲設定部
24 判定部
25 計測部
26 ファイル生成部
27 記録部
28 全体制御部
30 合成部
DESCRIPTION OF SYMBOLS 1 3D shape measuring device 2, 3 Camera 4 Projector 5 Calculation part 6 Monitor 7 Input part 11 Light source 12 Filter part 21 Irradiation control part 22 Shooting control part 23 Range setting part 24 Determination part 25 Measurement part 26 File generation part 27 Recording part 28 Overall Control Unit 30 Composition Unit

Claims (9)

被写体を撮影することにより、該被写体の3次元形状を計測するための複数の計測用画像からなる計測用画像群を取得する複数の撮影手段と、
前記撮影手段による画角の範囲内にパターン光を照射する照射手段と、
前記被写体にパターン光を照射するよう前記照射手段を制御する照射制御手段と、
前記被写体のプレ画像および前記パターン光が非照射の前記被写体の複数の第1の計測用画像からなる第1の計測用画像群取得するよう、前記複数の撮影手段を制御する撮影制御手段と、
前記プレ画像上に複数の領域を設定し、該領域毎に前記パターン光を照射する領域とするか、前記パターン光が非照射の領域とするかを判定する判定手段とを備え、
前記撮影制御手段は、前記複数の領域のうち前記パターン光を照射すると判定された領域が存在する場合に、前記パターン光が照射された前記被写体の複数の第2の計測用画像からなる第2の計測用画像群を取得するよう、前記複数の撮影手段を制御する手段であり、
前記第2の計測用画像群が取得された場合において、前記第1の計測用画像群から前記パターン光が非照射と判定された領域に対応する非照射領域を抽出し、前記第2の計測用画像群から前記パターン光を照射すると判定された領域に対応する照射領域を抽出し、互いに対応する前記第1および前記第2の計測用画像群から抽出した前記非照射領域および前記照射領域から、複数の合成画像からなる合成画像群を生成する合成手段と、
前記合成画像群に基づいて、前記被写体の3次元形状を計測する計測手段とを備えたことを特徴とする3次元形状計測用撮影装置。
A plurality of photographing means for obtaining a measurement image group composed of a plurality of measurement images for measuring a three-dimensional shape of the subject by photographing the subject;
Irradiating means for irradiating pattern light within the range of the angle of view by the photographing means;
Irradiation control means for controlling the irradiation means to irradiate the subject with pattern light;
Photographing control means for controlling the plurality of photographing means so as to acquire a first measurement image group including a plurality of first measurement images of the subject that are not irradiated with the pre-image of the subject and the pattern light; ,
A determination unit that sets a plurality of areas on the pre-image and determines whether each of the areas is irradiated with the pattern light or a non-irradiated area of the pattern light ;
The imaging control unit includes a second measurement image including a plurality of second measurement images of the subject irradiated with the pattern light when there is a region determined to be irradiated with the pattern light among the plurality of regions. A means for controlling the plurality of photographing means so as to acquire a measurement image group of
In the case where the second measurement image group is acquired, a non-irradiation region corresponding to a region where the pattern light is determined to be non-irradiation is extracted from the first measurement image group, and the second measurement is performed. An irradiation area corresponding to an area determined to be irradiated with the pattern light is extracted from the image group for image, and the non-irradiation area and the irradiation area extracted from the first and second measurement image groups corresponding to each other are extracted. Combining means for generating a composite image group composed of a plurality of composite images;
A three-dimensional shape measurement imaging apparatus comprising: a measuring unit that measures a three-dimensional shape of the subject based on the composite image group .
被写体を撮影することにより、該被写体の3次元形状を計測するための複数の計測用画像からなる計測用画像群を取得する複数の撮影手段と、
前記撮影手段による画角の範囲内にパターン光を照射する照射手段と、
前記被写体にパターン光を照射するよう前記照射手段を制御する照射制御手段と、
前記パターン光が非照射の前記被写体の複数の第1の計測用画像からなる第1の計測用画像群、および前記パターン光が照射された前記被写体の複数の第2の計測用画像からなる第2の計測用画像群を取得するよう、前記複数の撮影手段を制御する撮影制御手段と、
少なくとも1つの前記第1の計測用画像に複数の領域を設定し、該領域毎に前記パターン光を照射する領域とするか、前記パターン光が非照射の領域とするかを判定する判定手段と、
前記第1の計測用画像群から前記パターン光が非照射と判定された領域に対応する非照射領域を抽出し、前記第2の計測用画像群から前記パターン光を照射すると判定された領域に対応する照射領域を抽出し、互いに対応する前記第1および前記第2の計測用画像群から抽出した前記非照射領域および前記照射領域から、複数の合成画像からなる合成画像群を生成する合成手段と、
前記合成画像群に基づいて、前記被写体の3次元形状を計測する計測手段とを備えたことを特徴とする3次元形状計測用撮影装置。
A plurality of photographing means for obtaining a measurement image group composed of a plurality of measurement images for measuring a three-dimensional shape of the subject by photographing the subject;
Irradiating means for irradiating pattern light within the range of the angle of view by the photographing means;
Irradiation control means for controlling the irradiation means to irradiate the subject with pattern light;
A first measurement image group consisting of a plurality of first measurement images of the subject not irradiated with the pattern light, and a second measurement image consisting of a plurality of second measurement images of the subject irradiated with the pattern light. Photographing control means for controlling the plurality of photographing means so as to obtain two measurement image groups;
A determination unit that sets a plurality of regions on at least one of the first measurement images and determines whether each region is irradiated with the pattern light or whether the pattern light is a non-irradiated region. When,
A non-irradiation area corresponding to an area determined to be non-irradiated with the pattern light is extracted from the first image group for measurement, and an area determined to be irradiated with the pattern light from the second image group for measurement is extracted. Combining means for extracting a corresponding irradiation region and generating a composite image group composed of a plurality of composite images from the non-irradiation region and the irradiation region extracted from the first and second measurement image groups corresponding to each other. When,
A three-dimensional shape measurement imaging apparatus comprising: a measuring unit that measures a three-dimensional shape of the subject based on the composite image group .
被写体を撮影することにより、該被写体の3次元形状を計測するための複数の計測用画像からなる計測用画像群を取得する複数の撮影手段と、
前記撮影手段による画角の範囲内にパターン光を照射する照射手段と、
前記被写体にパターン光を照射するよう前記照射手段を制御する照射制御手段と、
前記パターン光が非照射の前記被写体の複数の第1の計測用画像からなる第1の計測用画像群を取得するよう、前記複数の撮影手段を制御する撮影制御手段と、
少なくとも1つの前記第1の計測用画像上に複数の領域を設定し、該領域毎に前記パターン光を照射する領域とするか、前記パターン光が非照射の領域とするかを判定する判定手段とを備え、
前記撮影制御手段は、前記複数の領域のうち前記パターン光を照射すると判定された領域が存在する場合に、前記パターン光が照射された前記被写体の複数の第2の計測用画像からなる第2の計測用画像群を取得するよう、前記複数の撮影手段を制御する手段であり、
前記第2の計測用画像群が取得された場合において、前記第1の計測用画像群から前記パターン光が非照射と判定された領域に対応する非照射領域を抽出し、前記第2の計測用画像群から前記パターン光を照射すると判定された領域に対応する照射領域を抽出し、互いに対応する前記第1および前記第2の計測用画像群から抽出した前記非照射領域および前記照射領域から、複数の合成画像からなる合成画像群を生成する合成手段と、
前記合成画像群に基づいて、前記被写体の3次元形状を計測する計測手段とを備えたことを特徴とする3次元形状計測用撮影装置。
A plurality of photographing means for obtaining a measurement image group composed of a plurality of measurement images for measuring a three-dimensional shape of the subject by photographing the subject;
Irradiating means for irradiating pattern light within the range of the angle of view by the photographing means;
Irradiation control means for controlling the irradiation means to irradiate the subject with pattern light;
Photographing control means for controlling the plurality of photographing means so as to obtain a first measurement image group composed of a plurality of first measurement images of the subject not irradiated with the pattern light;
A determination unit that sets a plurality of regions on at least one of the first measurement images and determines whether each region is irradiated with the pattern light or whether the pattern light is a non-irradiated region. And
The imaging control unit includes a second measurement image including a plurality of second measurement images of the subject irradiated with the pattern light when there is a region determined to be irradiated with the pattern light among the plurality of regions. A means for controlling the plurality of photographing means so as to acquire a measurement image group of
In the case where the second measurement image group is acquired, a non-irradiation region corresponding to a region where the pattern light is determined to be non-irradiation is extracted from the first measurement image group, and the second measurement is performed. An irradiation area corresponding to an area determined to be irradiated with the pattern light is extracted from the image group for image, and the non-irradiation area and the irradiation area extracted from the first and second measurement image groups corresponding to each other are extracted. Combining means for generating a composite image group composed of a plurality of composite images;
A three-dimensional shape measurement imaging apparatus comprising: a measuring unit that measures a three-dimensional shape of the subject based on the composite image group .
被写体を撮影することにより、該被写体の3次元形状を計測するための複数の計測用画像からなる計測用画像群を取得する複数の撮影手段と、
前記撮影手段による画角の範囲内にパターン光を照射する照射手段とを備えた3次元形状計測用撮影装置における3次元形状計測用撮影方法であって、
前記被写体にパターン光を照射するよう前記照射手段を制御し、
前記被写体のプレ画像および前記パターン光が非照射の前記被写体の複数の第1の計測用画像からなる第1の計測用画像群取得するよう、前記複数の撮影手段を制御し、
前記プレ画像上に複数の領域を設定し、該領域毎に前記パターン光を照射する領域とするか、前記パターン光が非照射の領域とするかを判定し、
前記複数の領域のうち前記パターン光を照射すると判定された領域が存在する場合に、前記パターン光が照射された前記被写体の複数の第2の計測用画像からなる第2の計測用画像群を取得するよう、前記複数の撮影手段を制御し、
前記第2の計測用画像群が取得された場合において、前記第1の計測用画像群から前記パターン光が非照射と判定された領域に対応する非照射領域を抽出し、前記第2の計測用画像群から前記パターン光を照射すると判定された領域に対応する照射領域を抽出し、互いに対応する前記第1および前記第2の計測用画像群から抽出した前記非照射領域および前記照射領域から、複数の合成画像からなる合成画像群を生成し、
前記合成画像群に基づいて、前記被写体の3次元形状を計測することを特徴とする3次元形状計測用撮影方法。
A plurality of photographing means for obtaining a measurement image group composed of a plurality of measurement images for measuring a three-dimensional shape of the subject by photographing the subject;
An imaging method for 3D shape measurement in an imaging device for 3D shape measurement comprising irradiation means for irradiating pattern light within a range of an angle of view by the imaging means,
Controlling the irradiating means to irradiate the subject with pattern light;
Controlling the plurality of photographing means so as to acquire a first measurement image group including a plurality of first measurement images of the subject that is not irradiated with the pattern pre-image and the pattern light;
A plurality of areas are set on the pre-image, and it is determined whether each area is irradiated with the pattern light or whether the pattern light is a non-irradiated area ,
When there is an area determined to irradiate the pattern light among the plurality of areas, a second measurement image group including a plurality of second measurement images of the subject irradiated with the pattern light Controlling the plurality of imaging means to obtain,
In the case where the second measurement image group is acquired, a non-irradiation region corresponding to a region where the pattern light is determined to be non-irradiation is extracted from the first measurement image group, and the second measurement is performed. An irradiation area corresponding to an area determined to be irradiated with the pattern light is extracted from the image group for image, and the non-irradiation area and the irradiation area extracted from the first and second measurement image groups corresponding to each other are extracted. , Generate a composite image group composed of a plurality of composite images,
A three-dimensional shape measurement photographing method , comprising: measuring a three-dimensional shape of the subject based on the composite image group .
被写体を撮影することにより、該被写体の3次元形状を計測するための複数の計測用画像からなる計測用画像群を取得する複数の撮影手段と、
前記撮影手段による画角の範囲内にパターン光を照射する照射手段とを備えた3次元形状計測用撮影装置における3次元形状計測用撮影方法であって、
前記被写体にパターン光を照射するよう前記照射手段を制御し、
前記パターン光が非照射の前記被写体の複数の第1の計測用画像からなる第1の計測用画像群、および前記パターン光が照射された前記被写体の複数の第2の計測用画像からなる第2の計測用画像群を取得するよう、前記複数の撮影手段を制御し、
少なくとも1つの前記第1の計測用画像に複数の領域を設定し、該領域毎に前記パターン光を照射する領域とするか、前記パターン光が非照射の領域とするかを判定し、
前記第1の計測用画像群から前記パターン光が非照射と判定された領域に対応する非照射領域を抽出し、前記第2の計測用画像群から前記パターン光を照射すると判定された領域に対応する照射領域を抽出し、互いに対応する前記第1および前記第2の計測用画像群から抽出した前記非照射領域および前記照射領域から、複数の合成画像からなる合成画像群を生成し、
前記合成画像群に基づいて、前記被写体の3次元形状を計測することを特徴とする3次元形状計測用撮影方法。
A plurality of photographing means for obtaining a measurement image group composed of a plurality of measurement images for measuring a three-dimensional shape of the subject by photographing the subject;
An imaging method for 3D shape measurement in an imaging device for 3D shape measurement comprising irradiation means for irradiating pattern light within a range of an angle of view by the imaging means,
Controlling the irradiating means to irradiate the subject with pattern light;
A first measurement image group consisting of a plurality of first measurement images of the subject not irradiated with the pattern light, and a second measurement image consisting of a plurality of second measurement images of the subject irradiated with the pattern light. Controlling the plurality of photographing means so as to obtain two measurement image groups,
A plurality of areas are set on at least one of the first measurement images , and it is determined whether each of the areas is irradiated with the pattern light or whether the pattern light is a non-irradiated area .
A non-irradiation area corresponding to an area determined to be non-irradiated with the pattern light is extracted from the first image group for measurement, and an area determined to be irradiated with the pattern light from the second image group for measurement is extracted. Extracting a corresponding irradiation region, generating a composite image group composed of a plurality of composite images from the non-irradiation region and the irradiation region extracted from the first and second measurement image groups corresponding to each other;
A three-dimensional shape measurement photographing method , comprising: measuring a three-dimensional shape of the subject based on the composite image group .
被写体を撮影することにより、該被写体の3次元形状を計測するための複数の計測用画像からなる計測用画像群を取得する複数の撮影手段と、
前記撮影手段による画角の範囲内にパターン光を照射する照射手段とを備えた3次元形状計測用撮影装置における3次元形状計測用撮影方法であって、
前記被写体にパターン光を照射するよう前記照射手段を制御し、
前記パターン光が非照射の前記被写体の複数の第1の計測用画像からなる第1の計測用画像群を取得するよう、前記複数の撮影手段を制御し、
少なくとも1つの前記第1の計測用画像上に複数の領域を設定し、該領域毎に前記パターン光を照射する領域とするか、前記パターン光が非照射の領域とするかを判定し、
前記複数の領域のうち前記パターン光を照射すると判定された領域が存在する場合に、前記パターン光が照射された前記被写体の複数の第2の計測用画像からなる第2の計測用画像群を取得するよう、前記複数の撮影手段を制御し、
前記第2の計測用画像群が取得された場合において、前記第1の計測用画像群から前記パターン光が非照射と判定された領域に対応する非照射領域を抽出し、前記第2の計測用画像群から前記パターン光を照射すると判定された領域に対応する照射領域を抽出し、互いに対応する前記第1および前記第2の計測用画像群から抽出した前記非照射領域および前記照射領域から、複数の合成画像からなる合成画像群を生成し、
前記合成画像群に基づいて、前記被写体の3次元形状を計測することを特徴とする3次元形状計測用撮影方法。
A plurality of photographing means for obtaining a measurement image group composed of a plurality of measurement images for measuring a three-dimensional shape of the subject by photographing the subject;
An imaging method for 3D shape measurement in an imaging device for 3D shape measurement comprising irradiation means for irradiating pattern light within a range of an angle of view by the imaging means,
Controlling the irradiating means to irradiate the subject with pattern light;
Controlling the plurality of imaging means so as to obtain a first measurement image group composed of a plurality of first measurement images of the subject not irradiated with the pattern light;
A plurality of areas are set on at least one of the first measurement images, and it is determined whether each of the areas is irradiated with the pattern light or whether the pattern light is a non-irradiated area .
When there is an area determined to irradiate the pattern light among the plurality of areas, a second measurement image group including a plurality of second measurement images of the subject irradiated with the pattern light Controlling the plurality of imaging means to obtain,
In the case where the second measurement image group is acquired, a non-irradiation region corresponding to a region where the pattern light is determined to be non-irradiation is extracted from the first measurement image group, and the second measurement is performed. An irradiation area corresponding to an area determined to be irradiated with the pattern light is extracted from the image group for image, and the non-irradiation area and the irradiation area extracted from the first and second measurement image groups corresponding to each other are extracted. , Generate a composite image group composed of a plurality of composite images,
A three-dimensional shape measurement photographing method , comprising: measuring a three-dimensional shape of the subject based on the composite image group .
被写体を撮影することにより、該被写体の3次元形状を計測するための複数の計測用画像からなる計測用画像群を取得する複数の撮影手段と、
前記撮影手段による画角の範囲内にパターン光を照射する照射手段とを備えた3次元形状計測用撮影装置における3次元形状計測用撮影方法をコンピュータに実行させるためのプログラムであって、
前記被写体にパターン光を照射するよう前記照射手段を制御する手順と、
前記被写体のプレ画像および前記パターン光が非照射の前記被写体の複数の第1の計測用画像からなる第1の計測用画像群取得するよう、前記複数の撮影手段を制御する手順と、
前記プレ画像上に複数の領域を設定し、該領域毎に前記パターン光を照射する領域とするか、前記パターン光が非照射の領域とするかを判定する手順と、
前記複数の領域のうち前記パターン光を照射すると判定された領域が存在する場合に、前記パターン光が照射された前記被写体の複数の第2の計測用画像からなる第2の計測用画像群を取得するよう、前記複数の撮影手段を制御する手順と、
前記第2の計測用画像群が取得された場合において、前記第1の計測用画像群から前記パターン光が非照射と判定された領域に対応する非照射領域を抽出し、前記第2の計測用画像群から前記パターン光を照射すると判定された領域に対応する照射領域を抽出し、互いに対応する前記第1および前記第2の計測用画像群から抽出した前記非照射領域および前記照射領域から、複数の合成画像からなる合成画像群を生成する手順と、
前記合成画像群に基づいて、前記被写体の3次元形状を計測する手順とをコンピュータに実行させるためのプログラム。
A plurality of photographing means for obtaining a measurement image group composed of a plurality of measurement images for measuring a three-dimensional shape of the subject by photographing the subject;
A program for causing a computer to execute a three-dimensional shape measurement photographing method in a three-dimensional shape measurement photographing device including irradiation means for irradiating pattern light within a range of an angle of view by the photographing means,
A procedure for controlling the irradiation means to irradiate the subject with pattern light;
A procedure for controlling the plurality of photographing means so as to obtain a first measurement image group consisting of a plurality of first measurement images of the subject that is not irradiated with the pattern pre-image and the pattern light;
A procedure for setting a plurality of areas on the pre-image and determining whether each of the areas is irradiated with the pattern light or whether the pattern light is a non-irradiated area ;
When there is an area determined to irradiate the pattern light among the plurality of areas, a second measurement image group including a plurality of second measurement images of the subject irradiated with the pattern light A procedure for controlling the plurality of photographing means so as to obtain;
In the case where the second measurement image group is acquired, a non-irradiation region corresponding to a region where the pattern light is determined to be non-irradiation is extracted from the first measurement image group, and the second measurement is performed. An irradiation area corresponding to an area determined to be irradiated with the pattern light is extracted from the image group for image, and the non-irradiation area and the irradiation area extracted from the first and second measurement image groups corresponding to each other are extracted. A procedure for generating a composite image group composed of a plurality of composite images;
A program for causing a computer to execute a procedure for measuring a three-dimensional shape of the subject based on the composite image group .
被写体を撮影することにより、該被写体の3次元形状を計測するための複数の計測用画像からなる計測用画像群を取得する複数の撮影手段と、
前記撮影手段による画角の範囲内にパターン光を照射する照射手段とを備えた3次元形状計測用撮影装置における3次元形状計測用撮影方法をコンピュータに実行させるためのプログラムであって、
前記被写体にパターン光を照射するよう前記照射手段を制御する手順と、
前記パターン光が非照射の前記被写体の複数の第1の計測用画像からなる第1の計測用画像群、および前記パターン光が照射された前記被写体の複数の第2の計測用画像からなる第2の計測用画像群を取得するよう、前記複数の撮影手段を制御する手順と、
少なくとも1つの前記第1の計測用画像に複数の領域を設定し、該領域毎に前記パターン光を照射する領域とするか、前記パターン光が非照射の領域とするかを判定する手順と、
前記第1の計測用画像群から前記パターン光が非照射と判定された領域に対応する非照射領域を抽出し、前記第2の計測用画像群から前記パターン光を照射すると判定された領域に対応する照射領域を抽出し、互いに対応する前記第1および前記第2の計測用画像群から抽出した前記非照射領域および前記照射領域から、複数の合成画像からなる合成画像群を生成する手順と、
前記合成画像群に基づいて、前記被写体の3次元形状を計測する手順とをコンピュータに実行させるためのプログラム。
A plurality of photographing means for obtaining a measurement image group composed of a plurality of measurement images for measuring a three-dimensional shape of the subject by photographing the subject;
A program for causing a computer to execute a three-dimensional shape measurement photographing method in a three-dimensional shape measurement photographing device including irradiation means for irradiating pattern light within a range of an angle of view by the photographing means,
A procedure for controlling the irradiation means to irradiate the subject with pattern light;
A first measurement image group consisting of a plurality of first measurement images of the subject not irradiated with the pattern light, and a second measurement image consisting of a plurality of second measurement images of the subject irradiated with the pattern light. A procedure for controlling the plurality of photographing means so as to acquire two measurement image groups;
A procedure of setting a plurality of areas on at least one of the first measurement images and determining whether each area is to be irradiated with the pattern light or whether the pattern light is a non-irradiated area ; ,
A non-irradiation area corresponding to an area determined to be non-irradiated with the pattern light is extracted from the first image group for measurement, and an area determined to be irradiated with the pattern light from the second image group for measurement is extracted. A procedure for extracting a corresponding irradiation region and generating a composite image group including a plurality of composite images from the non-irradiation region and the irradiation region extracted from the first and second measurement image groups corresponding to each other; ,
A program for causing a computer to execute a procedure for measuring a three-dimensional shape of the subject based on the composite image group .
被写体を撮影することにより、該被写体の3次元形状を計測するための複数の計測用画像からなる計測用画像群を取得する複数の撮影手段と、
前記撮影手段による画角の範囲内にパターン光を照射する照射手段とを備えた3次元形状計測用撮影装置における3次元形状計測用撮影方法をコンピュータに実行させるためのプログラムであって、
前記被写体にパターン光を照射するよう前記照射手段を制御する手順と、
前記パターン光が非照射の前記被写体の複数の第1の計測用画像からなる第1の計測用画像群を取得するよう、前記複数の撮影手段を制御する手順と、
少なくとも1つの前記第1の計測用画像上に複数の領域を設定し、該領域毎に前記パターン光を照射する領域とするか、前記パターン光が非照射の領域とするかを判定する手順と、
前記複数の領域のうち前記パターン光を照射すると判定された領域が存在する場合に、前記パターン光が照射された前記被写体の複数の第2の計測用画像からなる第2の計測用画像群を取得するよう、前記複数の撮影手段を制御する手順と、
前記第2の計測用画像群が取得された場合において、前記第1の計測用画像群から前記パターン光が非照射と判定された領域に対応する非照射領域を抽出し、前記第2の計測用画像群から前記パターン光を照射すると判定された領域に対応する照射領域を抽出し、互いに対応する前記第1および前記第2の計測用画像群から抽出した前記非照射領域および前記照射領域から、複数の合成画像からなる合成画像群を生成する手順と、
前記合成画像群に基づいて、前記被写体の3次元形状を計測する手順とをコンピュータに実行させるためのプログラム。
A plurality of photographing means for obtaining a measurement image group composed of a plurality of measurement images for measuring a three-dimensional shape of the subject by photographing the subject;
A program for causing a computer to execute a three-dimensional shape measurement photographing method in a three-dimensional shape measurement photographing device including irradiation means for irradiating pattern light within a range of an angle of view by the photographing means,
A procedure for controlling the irradiation means to irradiate the subject with pattern light;
A procedure for controlling the plurality of imaging means so as to obtain a first measurement image group composed of a plurality of first measurement images of the subject not irradiated with the pattern light;
A procedure of setting a plurality of areas on at least one of the first measurement images and determining whether each area is to be irradiated with the pattern light or whether the pattern light is a non-irradiated area ; ,
When there is an area determined to irradiate the pattern light among the plurality of areas, a second measurement image group including a plurality of second measurement images of the subject irradiated with the pattern light A procedure for controlling the plurality of photographing means so as to obtain;
In the case where the second measurement image group is acquired, a non-irradiation region corresponding to a region where the pattern light is determined to be non-irradiation is extracted from the first measurement image group, and the second measurement is performed. An irradiation area corresponding to an area determined to be irradiated with the pattern light is extracted from the image group for image, and the non-irradiation area and the irradiation area extracted from the first and second measurement image groups corresponding to each other are extracted. A procedure for generating a composite image group composed of a plurality of composite images;
A program for causing a computer to execute a procedure for measuring a three-dimensional shape of the subject based on the composite image group .
JP2008263386A 2008-10-10 2008-10-10 Imaging apparatus and method for three-dimensional shape measurement, and program Expired - Fee Related JP5161025B2 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2008263386A JP5161025B2 (en) 2008-10-10 2008-10-10 Imaging apparatus and method for three-dimensional shape measurement, and program
US12/576,600 US8294762B2 (en) 2008-10-10 2009-10-09 Three-dimensional shape measurement photographing apparatus, method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2008263386A JP5161025B2 (en) 2008-10-10 2008-10-10 Imaging apparatus and method for three-dimensional shape measurement, and program

Publications (2)

Publication Number Publication Date
JP2010091492A JP2010091492A (en) 2010-04-22
JP5161025B2 true JP5161025B2 (en) 2013-03-13

Family

ID=42254342

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008263386A Expired - Fee Related JP5161025B2 (en) 2008-10-10 2008-10-10 Imaging apparatus and method for three-dimensional shape measurement, and program

Country Status (1)

Country Link
JP (1) JP5161025B2 (en)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2012042976A1 (en) * 2010-09-28 2012-04-05 三洋電機株式会社 Object detecting device and information acquiring device
JP5587137B2 (en) * 2010-10-29 2014-09-10 キヤノン株式会社 Measuring apparatus and measuring method
JP6631225B2 (en) * 2015-12-14 2020-01-15 日本電産トーソク株式会社 3D shape measuring device
WO2020235348A1 (en) * 2019-05-17 2020-11-26 株式会社ソニー・インタラクティブエンタテインメント Optical pattern radiation control device and optical pattern radiation control method

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6287647B1 (en) * 1999-12-03 2001-09-11 Minolta Co., Ltd. Liquid crystal composition and liquid crystal display using the same
JP3575693B2 (en) * 2001-03-25 2004-10-13 オムロン株式会社 Optical measuring device
JP2002300605A (en) * 2001-03-29 2002-10-11 Minolta Co Ltd Image pickup device for three-dimensional input
JP2007093412A (en) * 2005-09-29 2007-04-12 Fujinon Corp Three-dimensional shape measuring device

Also Published As

Publication number Publication date
JP2010091492A (en) 2010-04-22

Similar Documents

Publication Publication Date Title
US8294762B2 (en) Three-dimensional shape measurement photographing apparatus, method, and program
JP4657313B2 (en) Stereoscopic image display apparatus and method, and program
JP4401727B2 (en) Image display apparatus and method
JP6712453B2 (en) Augmented reality providing system and method, information processing device, and program
JP4065488B2 (en) 3D image generation apparatus, 3D image generation method, and storage medium
JP5161024B2 (en) Imaging apparatus and method for three-dimensional shape measurement, and program
JP4828506B2 (en) Virtual viewpoint image generation device, program, and recording medium
CN108053469A (en) Complicated dynamic scene human body three-dimensional method for reconstructing and device under various visual angles camera
CN106802138A (en) A kind of 3 D scanning system and its scan method
US8441518B2 (en) Imaging apparatus, imaging control method, and recording medium
CN107734264B (en) Image processing method and device
JP2008232776A (en) Three-dimensional shape measuring device and method, and program
US20170028648A1 (en) 3d data generation apparatus and method, and storage medium
JP2012185772A (en) Method and program for enhancing accuracy of composited picture quality of free viewpoint picture using non-fixed zoom camera
JP5161025B2 (en) Imaging apparatus and method for three-dimensional shape measurement, and program
US20130194254A1 (en) Image processing apparatus, image processing method and program
JP2009047497A (en) Stereoscopic imaging device, control method of stereoscopic imaging device, and program
JPH10143652A (en) Medical image composing device
TW201225658A (en) Imaging device, image-processing device, image-processing method, and image-processing program
KR101454780B1 (en) Apparatus and method for generating texture for three dimensional model
JP6552266B2 (en) Image processing apparatus, image processing method, and program
JP2022518402A (en) 3D reconstruction method and equipment
CN111899293B (en) Virtual and real shielding processing method in AR application
JP2004295813A (en) 3-dimensional figure verification unit
JPH09305796A (en) Image information processor

Legal Events

Date Code Title Description
RD15 Notification of revocation of power of sub attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7435

Effective date: 20110421

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20110706

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20120406

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20120410

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120514

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20120612

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120627

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20121127

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20121213

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20151221

Year of fee payment: 3

LAPS Cancellation because of no payment of annual fees