[go: up one dir, main page]

JP5163163B2 - Three-dimensional shape measuring apparatus and three-dimensional shape measuring method - Google Patents

Three-dimensional shape measuring apparatus and three-dimensional shape measuring method Download PDF

Info

Publication number
JP5163163B2
JP5163163B2 JP2008023912A JP2008023912A JP5163163B2 JP 5163163 B2 JP5163163 B2 JP 5163163B2 JP 2008023912 A JP2008023912 A JP 2008023912A JP 2008023912 A JP2008023912 A JP 2008023912A JP 5163163 B2 JP5163163 B2 JP 5163163B2
Authority
JP
Japan
Prior art keywords
image
dimensional shape
shape measuring
test object
imaging
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2008023912A
Other languages
Japanese (ja)
Other versions
JP2009186217A (en
Inventor
智明 山田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nikon Corp
Original Assignee
Nikon Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nikon Corp filed Critical Nikon Corp
Priority to JP2008023912A priority Critical patent/JP5163163B2/en
Publication of JP2009186217A publication Critical patent/JP2009186217A/en
Application granted granted Critical
Publication of JP5163163B2 publication Critical patent/JP5163163B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Length Measuring Devices By Optical Means (AREA)

Description

本発明は、撮像手段の出力に基づいて被検物体の3次元形状を測定する3次元形状測定装置および3次元形状測定方法に関する。   The present invention relates to a three-dimensional shape measuring apparatus and a three-dimensional shape measuring method for measuring a three-dimensional shape of a test object based on an output of an imaging means.

従来から、所定のパターンを有するパターン光を投光して3次元形状を測定する測定装置が知られている(例えば、特許文献1参照)。このような装置では、被検物体のうち、パターン光を投光する部分の形状に応じたパターン光の変形具合に基づいて、被検物体の3次元形状を測定する。
昭63−279110号公報
2. Description of the Related Art Conventionally, a measuring apparatus that projects a pattern light having a predetermined pattern and measures a three-dimensional shape is known (see, for example, Patent Document 1). In such an apparatus, the three-dimensional shape of the test object is measured based on the deformation state of the pattern light corresponding to the shape of the portion of the test object that projects the pattern light.
Sho 63-279110

しかし、上述した装置において、被検物体の表面の凹凸等に起因したテキスチャが存在すると、パターン光の変形具合の検出が不安定になる。このような場合、誤検出や検出誤差が発生し、精密測定に適さないという問題がある。   However, in the above-described apparatus, if there is a texture due to unevenness on the surface of the object to be examined, detection of the pattern light deformation becomes unstable. In such a case, there is a problem that erroneous detection or detection error occurs and it is not suitable for precise measurement.

本発明の3次元形状測定装置および3次元形状測定方法は、被検物体の表面のテキスチャによる影響を抑え、高精度な測定を行うことを目的とする。   An object of the three-dimensional shape measuring apparatus and the three-dimensional shape measuring method of the present invention is to suppress the influence due to the texture of the surface of the object to be measured and perform highly accurate measurement.

本発明の3次元形状測定装置は、所定のスリット形状を有するパターン光を、被検物体に対して第1の方向から投光する投光手段と、2次元光電変換素子を備え、前記被検物体から反射した前記パターン光の像を、前記第1の方向と異なる方向から前記2次元光電変換素子により撮像する撮像手段と、前記投光手段と前記被検物体との相対位置を変更し、前記投光手段によるパターン光を前記被検物体上で走査する変更手段と、前記被検物体の表面の凹凸に起因するテキスチャを推定する推定手段と、前記撮像手段により生成した画像を、前記推定手段により推定したテキスチャに基づいて補正する補正手段と、前記補正手段による補正後の補正画像に基づいて、前記被検物体の3次元形状を演算する演算手段とを備え、前記被検物体上での複数の異なる位置での前記画像を前記走査方向に沿って合成した合成画像に基づいて、前記推定手段は前記被検物体の表面の凹凸に起因するテキスチャを推定する。 The three-dimensional shape measuring apparatus of the present invention includes a light projecting unit that projects pattern light having a predetermined slit shape from a first direction onto a test object, and a two-dimensional photoelectric conversion element. Changing the relative position between the imaging means for imaging the image of the pattern light reflected from the object by the two-dimensional photoelectric conversion element from a direction different from the first direction, and the light projecting means and the test object; A changing means for scanning pattern light by the light projecting means on the test object, an estimation means for estimating texture due to irregularities on the surface of the test object, and an image generated by the imaging means and correcting means for correcting, based on the texture estimated by means, on the basis of the corrected image corrected by said correction means, wherein comprising calculating means for calculating the three-dimensional shape of the test object, wherein the object to be detected on the so Based on the combined composite image along said image at a plurality of different positions in the scanning direction, the estimating means you estimate texture due to unevenness of the surface of the test object.

また、前記撮像手段により生成した画像から、スリット形状を有する前記パターン光の画像を抽出する抽出手段をさらに備え、前記抽出手段により抽出された複数の異なる位置での前記パターン光の画像を前記走査方向に沿って合成した合成画像に基づいて、前記推定手段は前記被検物体の表面の凹凸に起因するテキスチャを推定しても良い。
また、前記撮像手段は、前記投光手段と異なる光による前記被検物体の表面を撮像して画像を生成し、前記異なる光による画像を用いて、前記投光手段の前記パターン光による前記被検物表面の凹凸に起因するテキスチャを、前記推定手段は推定しても良い。
また、前記合成画像は、前記複数の異なる位置での前記画像それぞれを前記変更手段による所定の送り量で前記走査方向にずらしつつ前記スリット形状の長手方向で揃うように合成された画像であっても良い。
また、前記テキスチャは、前記被検物体の表面の凹凸に起因する前記撮像手段により生成した画像における不均一な輝度成分であっても良い。
Also, the image generated by the imaging means further includes an extraction means for extracting an image of the pattern light having a slit shape, the scanning image of the pattern light in a plurality of different positions extracted by the extraction means Based on the synthesized image synthesized along the direction, the estimating means may estimate the texture due to the unevenness of the surface of the object to be examined.
In addition, the imaging unit generates an image by imaging the surface of the object to be inspected by light different from the light projecting unit, and uses the image by the different light to generate the image by the pattern light of the light projecting unit. The estimation means may estimate the texture resulting from the irregularities on the surface of the specimen.
Further, the synthesized image is an image synthesized so that the images at the plurality of different positions are aligned in the longitudinal direction of the slit shape while being shifted in the scanning direction by a predetermined feed amount by the changing means. Also good.
Further, the texture may be a non-uniform luminance component in an image generated by the imaging unit due to unevenness on the surface of the object to be examined.

なお、上記発明に関する構成を、撮像手段の出力に基づいて被検物体の3次元形状を測定する3次元形状測定方法に変換して表現したものも本発明の具体的態様として有効である。   It is also effective as a specific aspect of the present invention to express the configuration related to the above invention by converting it into a three-dimensional shape measuring method for measuring the three-dimensional shape of the object to be examined based on the output of the imaging means.

本発明の3次元形状測定装置および3次元形状測定方法によれば、被検物体の表面のテキスチャによる影響を抑え、高精度な測定を行うことができる。   According to the three-dimensional shape measuring apparatus and the three-dimensional shape measuring method of the present invention, it is possible to suppress the influence of the surface texture of the object to be inspected and perform highly accurate measurement.

以下、図面を用いて本発明の実施形態について説明する。   Hereinafter, embodiments of the present invention will be described with reference to the drawings.

図1は、本実施形態の3次元形状測定装置1の構成を示す図である。図1に示すように、3次元形状測定装置1は、投光部2、被検物体ホルダ3、被検物体ホルダ駆動ステージ4、撮像部5の各部を備えるとともに、各部を制御する制御部6を備える。   FIG. 1 is a diagram illustrating a configuration of a three-dimensional shape measuring apparatus 1 according to the present embodiment. As shown in FIG. 1, the three-dimensional shape measuring apparatus 1 includes a light projecting unit 2, a test object holder 3, a test object holder driving stage 4, and an imaging unit 5, and a control unit 6 that controls each unit. Is provided.

投光部2は、光ビームを射出するレーザ射出部7と、レーザ射出部7から射出された光ビームをスリット形状に整形するシリンドリカルレンズ8とを備える。   The light projecting unit 2 includes a laser emitting unit 7 that emits a light beam, and a cylindrical lens 8 that shapes the light beam emitted from the laser emitting unit 7 into a slit shape.

被検物体ホルダ3は、その上面に被検物体Tを保持する。また、被検物体ホルダ駆動ステージ4は、1軸のステージであり、被検物体ホルダ3を上述したスリットの長手方向と垂直な方向(矢印Aの方向)に駆動する。撮像部5は、不図示のレンズや2次元光電変換素子5aを備え、光ビームが投光された被検物体Tの反射像を、光ビームが投光される方向と異なる方向から撮像する。   The test object holder 3 holds the test object T on its upper surface. Further, the test object holder driving stage 4 is a uniaxial stage, and drives the test object holder 3 in a direction (in the direction of arrow A) perpendicular to the longitudinal direction of the slit described above. The imaging unit 5 includes a lens (not shown) and a two-dimensional photoelectric conversion element 5a, and images a reflected image of the test object T on which the light beam is projected from a direction different from the direction in which the light beam is projected.

以上説明した構成の3次元形状測定装置1の測定時の動作について、図2に示すフローチャートを用いて説明する。   The operation at the time of measurement of the three-dimensional shape measuring apparatus 1 having the above-described configuration will be described with reference to the flowchart shown in FIG.

はじめに、被検物体Tの表面の凹凸に起因したテキスチャが存在する場合に、撮像部5により生成される画像に発生する問題について説明する。テキスチャには、被検物体Tの表面の傷や微細な凹凸等により発生するものがある。被検物体Tの表面にこのようなテキスチャが存在すると、撮像部5により生成される画像が暗くなったり、画像中の光ビームの像の輝度が不均一になったり、部分的に輝点が発生したりする。このような問題が発生すると、光ビームの像の検出が不安定になる。例えば、後述するようにピーク位置を検出する際に、テキスチャが存在しない場合には、図3Aに示すようにピーク位置Pを検出可能である。しかし、テキスチャが存在する場合には、例えば図3Bに示すようにカーブの形状が変形してしまい、重心がずれ込みピーク位置を検出することができなかったり、誤検出してしまうおそれがある。図2のフローチャートはこのような問題に対応するための処理の一例を示す。   First, a problem that occurs in an image generated by the imaging unit 5 when there is texture due to the unevenness of the surface of the test object T will be described. Some textures are caused by scratches or fine irregularities on the surface of the test object T. When such a texture exists on the surface of the test object T, the image generated by the imaging unit 5 becomes dark, the brightness of the image of the light beam in the image becomes uneven, or a bright spot is partially present. Occur. When such a problem occurs, detection of the light beam image becomes unstable. For example, when the peak position is detected as described later, if no texture exists, the peak position P can be detected as shown in FIG. 3A. However, when the texture exists, for example, as shown in FIG. 3B, the shape of the curve is deformed, the center of gravity shifts, and the peak position may not be detected or may be erroneously detected. The flowchart in FIG. 2 shows an example of processing for dealing with such a problem.

ステップS1において、制御部6は、光ビームの走査を開始する。制御部6は、投光部2を制御して被検物体Tへの光ビームの投光を開始するとともに、被検物体ホルダ駆動ステージ4を制御して、被検物体ホルダ3を図1の矢印Aの方向に駆動する。この結果、被検物体Tに対する光ビームの走査が開始される。制御部6は、被検物体ホルダ駆動ステージ4を制御して、例えば、80μmステップで被検物体ホルダ3を駆動する。   In step S1, the control unit 6 starts scanning the light beam. The control unit 6 controls the light projecting unit 2 to start projecting the light beam onto the test object T, and controls the test object holder driving stage 4 so as to place the test object holder 3 in FIG. Drive in the direction of arrow A. As a result, scanning of the light beam with respect to the test object T is started. The control unit 6 controls the test object holder drive stage 4 to drive the test object holder 3 in 80 μm steps, for example.

ステップS2において、制御部6は、撮像部5を制御して、被検物体Tの撮像を開始する。なお、撮像部5による撮像は所定の時間間隔で繰り返し行われる。このとき、被検物体Tのうち光ビームが投光されている部分が平坦であれば、撮像により生成される光ビームの像は直線になる。また、被検物体Tのうち光ビームが投光されている部分に凹凸があれば、奥行き方向の位置に応じて光ビームの像が変形する。また、制御部6は、撮像により生成した画像を制御部6内の不図示のメモリに一旦記録する。なお、制御部6は、上述したステップ送り量である80μmごとに撮像を繰り返し行う。このような繰り返しの撮像により、図4Aに示すように、複数本のスリット形状の画像が時系列的に生成されることになる。   In step S <b> 2, the control unit 6 controls the imaging unit 5 to start imaging of the test object T. Note that imaging by the imaging unit 5 is repeatedly performed at predetermined time intervals. At this time, if the portion of the test object T where the light beam is projected is flat, the image of the light beam generated by imaging is a straight line. Further, if the portion of the test object T where the light beam is projected has irregularities, the image of the light beam is deformed according to the position in the depth direction. The control unit 6 once records an image generated by imaging in a memory (not shown) in the control unit 6. Note that the control unit 6 repeatedly performs imaging every 80 μm, which is the step feed amount described above. By such repeated imaging, a plurality of slit-shaped images are generated in time series as shown in FIG. 4A.

ステップS3において、制御部6は、環境光成分を補正する。被検物体Tの表面が金属面である場合、上述したテキスチャは拡散光の不安定性に起因し、入射角の影響を強く受ける。したがって、測定対象である光ビームによるテキスチャと環境光によるテキスチャとは一般には異なったものになる。そこで、制御部6は、ステップS2で生成した画像の環境光成分を補正する。その結果、測定対象である光ビームによるテキスチャのみの画像を得ることができる。   In step S3, the control unit 6 corrects the ambient light component. When the surface of the test object T is a metal surface, the above-described texture is strongly influenced by the incident angle due to the instability of diffused light. Accordingly, the texture by the light beam to be measured is generally different from the texture by the ambient light. Therefore, the control unit 6 corrects the ambient light component of the image generated in step S2. As a result, it is possible to obtain an image of only the texture by the light beam to be measured.

環境光成分を補正する方法には、以下の2つがある。1つ目は、投光部2を一旦消灯し、環境光成分のみを撮像部5により撮像して画像を生成し、生成した画像に基づいて補正する方法である。この画像には、環境光成分に相当する出力のみが現れることになる。この方法を用いる場合、制御部6は、ステップS3において、投光部2を一旦消灯し、撮像部5を制御して撮像を行う。2つ目は、通常の測定時に撮像部5により撮像した画像を解析し、解析結果に基づいて補正する方法である。この方法を用いる場合、制御部6は、ステップS2で生成した画像の輝度に基づいて、光ビームに相当するスリット形状の部分のみを抽出し、それ以外の部分を環境光成分として減算する。   There are the following two methods for correcting the ambient light component. The first is a method in which the light projecting unit 2 is temporarily turned off, only the ambient light component is captured by the imaging unit 5 to generate an image, and correction is performed based on the generated image. In this image, only an output corresponding to the ambient light component appears. When this method is used, the control unit 6 temporarily turns off the light projecting unit 2 and controls the imaging unit 5 to perform imaging in step S3. The second is a method of analyzing an image captured by the imaging unit 5 during normal measurement and correcting based on the analysis result. When this method is used, the control unit 6 extracts only the slit-shaped part corresponding to the light beam based on the luminance of the image generated in step S2, and subtracts the other part as the ambient light component.

ステップS4において、制御部6は、予め定められた全範囲における撮像を完了したか否かを判定する。そして、制御部6は、全範囲における撮像を完了したと判定するとステップS5に進む。一方、全範囲における撮像を完了していないと判定すると、制御部6は、ステップS2に戻り、所定の時間間隔の撮像を継続する。ステップS4において、全範囲における撮像を完了したと判定した際には、図4Bに示すように、環境光成分が補正された複数本のスリット形状の画像が生成されることになる。   In step S4, the control unit 6 determines whether or not the imaging in the entire predetermined range has been completed. If the control unit 6 determines that imaging in the entire range has been completed, the process proceeds to step S5. On the other hand, if it is determined that imaging in the entire range has not been completed, the control unit 6 returns to step S2 and continues imaging at a predetermined time interval. When it is determined in step S4 that imaging in the entire range has been completed, as shown in FIG. 4B, a plurality of slit-shaped images in which the ambient light components are corrected are generated.

ステップS5において、制御部6は、ステップS2における撮像により生成した全ての画像を合成する。制御部6は、環境光成分が補正された複数本のスリット形状の画像を合成してテキスチャ画像を生成する。ただし、制御部6は、合成する際にはシフト分を考慮して合成する。被検物体T換算で例えば、1pixel=40μmであるとすると、上述したようにステップ送り量は80μmであるため、2pixelずつシフトして合成する。   In step S5, the control unit 6 combines all the images generated by the imaging in step S2. The controller 6 generates a texture image by combining a plurality of slit-shaped images in which the ambient light component is corrected. However, the control unit 6 combines in consideration of the shift when combining. Assuming that 1 pixel = 40 μm in terms of the test object T, for example, as described above, the step feed amount is 80 μm, so that the two-pixel shifts are combined.

このように、複数本のスリット形状の画像を合成してテキスチャ画像を生成することにより、被検物体Tの表面の微細構造が均一でない場合でも、総合的にとらえることができる。図4Cに合成画像の生成の例を示す。ただし、図4Cでは、説明のためにテキスチャ画像を斜線で示しているが、実際は、被検物体Tの表面の凹凸に起因した模様などがテキスチャ画像として表れる。   In this way, by synthesizing a plurality of slit-shaped images to generate a texture image, even if the fine structure of the surface of the test object T is not uniform, it can be comprehensively captured. FIG. 4C shows an example of generating a composite image. However, in FIG. 4C, the texture image is indicated by diagonal lines for the sake of explanation, but in reality, a pattern or the like due to the unevenness of the surface of the test object T appears as the texture image.

ステップS6において、制御部6は、ステップS2における撮像により生成した画像のテキスチャを、ステップS5において合成した合成画像に基づいて補正する。例えば、制御部6は、制御部6内の不図示のメモリからステップS2における撮像により生成した複数の画像を読み出し、それぞれに画像について、ステップS5で生成したテキスチャ画像に基づいて補正する。例えば、制御部6は、ステップS2における撮像により生成したある画像の輝度を、テキスチャ画像のうち、ステップS2における撮像により生成した画像に該当する位置の輝度値で除算することにより補正する。テキスチャ画像の輝度値は、被検物体Tの反射率を反映している。そのため、テキスチャ画像の輝度値で除算することにより、反射率を1に換算して補正することができる。このような補正を行うと、画像の明るさを回復し、輝度を均一にするとともに、部分的に発生していた輝点を解消することができる。   In step S6, the control unit 6 corrects the texture of the image generated by the imaging in step S2 based on the synthesized image synthesized in step S5. For example, the control unit 6 reads a plurality of images generated by imaging in step S2 from a memory (not shown) in the control unit 6, and corrects each image based on the texture image generated in step S5. For example, the control unit 6 corrects the luminance of a certain image generated by the imaging in step S2 by dividing the luminance value of the position corresponding to the image generated by the imaging in step S2 among the texture images. The luminance value of the texture image reflects the reflectance of the test object T. Therefore, the reflectance can be converted to 1 and corrected by dividing by the luminance value of the texture image. When such correction is performed, the brightness of the image can be restored, the luminance can be made uniform, and the bright spots that have been partially generated can be eliminated.

ステップS7において、制御部6は、ステップS6でテキスチャを補正した画像に基づいて、ピーク、重心などを求める。   In step S7, the control unit 6 obtains a peak, a center of gravity, and the like based on the image in which the texture is corrected in step S6.

ステップS8において、制御部6は、ステップS7の検出結果に基づいて、被検物体Tの3次元形状を演算する。   In step S8, the control unit 6 calculates the three-dimensional shape of the test object T based on the detection result of step S7.

以上説明したように、第1実施形態によれば、被検物体の表面の凹凸に起因するテキスチャを推定し、撮像手段により生成した画像を、推定したテキスチャに基づいて補正する。そして、補正後の補正画像に基づいて、被検物体の3次元形状を演算する。したがって、被検物体の表面のテキスチャによる影響を抑え、被検物体により忠実な、高精度な測定を行うことができる。   As described above, according to the first embodiment, the texture caused by the unevenness of the surface of the object to be examined is estimated, and the image generated by the imaging unit is corrected based on the estimated texture. Then, the three-dimensional shape of the test object is calculated based on the corrected image after correction. Therefore, the influence of the texture of the surface of the test object can be suppressed, and the measurement can be performed with higher accuracy and more faithful to the test object.

また、第1実施形態によれば、複数の画像を合成して生成した合成画像に基づいて、テキスチャを推定する。したがって、より確実にテキスチャによる影響を抑えることができる。   Further, according to the first embodiment, the texture is estimated based on a composite image generated by combining a plurality of images. Therefore, it is possible to suppress the influence of the texture more reliably.

また、第1実施形態によれば、投光手段と被検物体との相対位置を変更する変更手段をさらに備え、投光手段は、スリット形状を有するパターン光を投光する。そして、複数の異なる相対位置における画像を合成した合成画像に基づいて、テキスチャを推定する。したがって、より正確にテキスチャを推定することができ、より正確にテキスチャを補正することができる。   In addition, according to the first embodiment, the projector further includes a changing unit that changes the relative position between the light projecting unit and the object to be examined, and the light projecting unit projects the pattern light having the slit shape. Then, the texture is estimated based on a composite image obtained by combining images at a plurality of different relative positions. Therefore, the texture can be estimated more accurately, and the texture can be corrected more accurately.

また、第1実施形態によれば、スリット形状を有するパターン光の画像を抽出する抽出手段をさらに備え、複数の異なる相対位置において抽出したパターン光の画像を合成した合成画像に基づいて、テキスチャを推定する。したがって、環境光成分の影響に配慮し、より正確な測定を実現することができる。   In addition, according to the first embodiment, the image processing apparatus further includes extraction means for extracting a pattern light image having a slit shape, and the texture is obtained based on a composite image obtained by combining the pattern light images extracted at a plurality of different relative positions. presume. Therefore, more accurate measurement can be realized in consideration of the influence of the ambient light component.

<第2実施形態>
以下、図面を用いて本発明の第2実施形態について説明する。第2実施形態では、第1実施形態と異なる部分についてのみ説明する。
Second Embodiment
The second embodiment of the present invention will be described below with reference to the drawings. In the second embodiment, only different parts from the first embodiment will be described.

第2実施形態の3次元形状測定装置は、第1実施形態の3次元形状測定装置1と同様の構成を有する。以下では、第1実施形態の図1と同様の記号を用いて説明する。   The three-dimensional shape measuring apparatus of the second embodiment has the same configuration as the three-dimensional shape measuring apparatus 1 of the first embodiment. Below, it demonstrates using the symbol similar to FIG. 1 of 1st Embodiment.

図5は、第2実施形態の3次元形状測定装置の測定時の動作を示すフローチャートである。   FIG. 5 is a flowchart showing an operation during measurement of the three-dimensional shape measuring apparatus according to the second embodiment.

ステップS11において、制御部6は、テキスチャ情報を取得する。テキスチャ情報を取得する方法には、以下の2つがある。1つ目は、不図示の拡散光源を用いて、撮像部5により撮像して画像を生成する方法である。生成された画像は、第1実施形態で説明したテキスチャ画像に相当する画像であり、この画像を用いて後述するテキスチャの補正を行うことができる。なお、投光部2が、拡散光源とスリットマスクとからなる構成である場合には、スリットマスクを外して撮像を行うことによりテキスチャ画像に相当する画像を生成することができる。2つ目は、3次元形状測定装置1の外部からテキスチャ画像に相当する画像もしくはこれに準ずる情報を取得する方法である。   In step S11, the control unit 6 acquires texture information. There are the following two methods for acquiring texture information. The first is a method of generating an image by imaging with the imaging unit 5 using a diffusion light source (not shown). The generated image is an image corresponding to the texture image described in the first embodiment, and texture correction to be described later can be performed using this image. In addition, when the light projection part 2 is the structure which consists of a diffused light source and a slit mask, the image equivalent to a texture image can be produced | generated by removing a slit mask and imaging. The second method is a method of acquiring an image corresponding to a texture image or information equivalent thereto from the outside of the three-dimensional shape measuring apparatus 1.

ステップS12において、制御部6は、第1実施形態のステップS1と同様に、光ビームの走査を開始する。   In step S <b> 12, the control unit 6 starts scanning with a light beam as in step S <b> 1 of the first embodiment.

ステップS13において、制御部6は、第1実施形態のステップS2と同様に、撮像部5を制御して、被検物体Tの撮像を開始する。   In step S <b> 13, the control unit 6 controls the imaging unit 5 to start imaging of the test object T, similarly to step S <b> 2 of the first embodiment.

ステップS14において、制御部6は、第1実施形態のステップS3と同様に、環境光成分を補正する。   In step S14, the control unit 6 corrects the ambient light component as in step S3 of the first embodiment.

ステップS15において、制御部6は、ステップS11で取得したテキスチャ情報の基づいて、第1実施形態のステップS6と同様に、画像のテキスチャを補正する。本実施形態では、上述したようにステップS11においてテキスチャ情報を既に取得しているため、第1実施形態のように全範囲における撮像の完了を待つことなく、ステップS14において環境光成分を補正した画像から順にテキスチャの補正を行うことができる。   In step S15, the control unit 6 corrects the texture of the image based on the texture information acquired in step S11, as in step S6 of the first embodiment. In the present embodiment, since the texture information has already been acquired in step S11 as described above, the image in which the ambient light component is corrected in step S14 without waiting for completion of imaging in the entire range as in the first embodiment. The texture can be corrected in order.

ステップS16において、制御部6は、第1実施形態のステップS4と同様に、予め定められた全範囲における撮像を完了したか否かを判定する。そして、制御部6は、全範囲における撮像を完了したと判定するとステップS17に進む。一方、全範囲における撮像を完了していないと判定すると、制御部6は、ステップS12に戻り、ステップS12からステップS15の処理を継続する。   In step S <b> 16, the control unit 6 determines whether or not imaging in the entire predetermined range has been completed as in step S <b> 4 of the first embodiment. If the control unit 6 determines that imaging in the entire range has been completed, the process proceeds to step S17. On the other hand, if it determines with the imaging in the whole range not being completed, the control part 6 will return to step S12, and will continue the process of step S12 to step S15.

ステップS17において、制御部6は、第1実施形態のステップS7と同様に、ステップS15でテキスチャを補正した画像に基づいて、ピーク、重心などを求める。   In step S17, as in step S7 of the first embodiment, the control unit 6 obtains a peak, a center of gravity, and the like based on the image in which the texture is corrected in step S15.

ステップS18において、制御部6は、第1実施形態のステップS8と同様に、ステップS7の1検出結果に基づいて、被検物体Tの3次元形状を演算する。   In step S18, the control unit 6 calculates the three-dimensional shape of the test object T based on the one detection result in step S7, as in step S8 of the first embodiment.

以上説明したように、第2実施形態によれば、予め撮像手段により撮像したテキスチャ画像に基づいて、テキスチャを推定する。したがって、全範囲における撮像の完了を待つことなく、テキスチャの補正を開始することができるので、第1実施形態の効果に加えて、処理時間の短縮が期待できる。   As described above, according to the second embodiment, the texture is estimated based on the texture image previously captured by the imaging unit. Therefore, texture correction can be started without waiting for completion of imaging in the entire range, and in addition to the effects of the first embodiment, a reduction in processing time can be expected.

なお、上記した各実施形態では、被検物体ホルダ3を駆動して被検物体との相対位置を変更する例を示したが、被検物体ホルダ3を固定し、投光部2をスリットの長手方向と垂直な方向へ駆動して相対位置を変更する構成としても良い。さらに、測定精度よりも測定レンジを優先する用途においては、ポリゴンミラー等で光ビームの投光角を走査する構成としても良い。この場合、ある画素を光ビームが通過する際に、被検物体への投光角が変化してしまうことがある。そのため、拡散光が不安定な被検物体の場合には、測定精度が低下する場合がある。いずれの場合も、被検物体ホルダ3を固定し、投光位置を走査する際には、スリット光が2次元光電変換素子5a上を移動するので、第1実施形態のステップS5で説明した画像の合成の際に、シフト分を考慮する必要はない。   In each of the above-described embodiments, the example in which the object holder 3 is driven to change the relative position with the object to be examined has been described. However, the object holder 3 is fixed and the light projecting unit 2 is connected to the slit. The relative position may be changed by driving in a direction perpendicular to the longitudinal direction. Furthermore, in an application in which the measurement range is given priority over the measurement accuracy, a configuration in which the projection angle of the light beam is scanned with a polygon mirror or the like may be employed. In this case, when the light beam passes through a certain pixel, the projection angle to the object to be measured may change. For this reason, in the case of a test object in which diffused light is unstable, measurement accuracy may be reduced. In any case, when the object holder 3 is fixed and the projection position is scanned, the slit light moves on the two-dimensional photoelectric conversion element 5a, so that the image described in step S5 of the first embodiment. There is no need to consider the shift when synthesizing.

また、上記した各実施形態では、投光部2から投光される光ビームは、1本のスリット形状である例を示したが、弁別が可能である限り複数本のスリット形状であっても良い。   Further, in each of the above-described embodiments, the light beam projected from the light projecting unit 2 has an example of a single slit shape. However, as long as discrimination is possible, a plurality of slit shapes may be used. good.

また、上記した各実施形態では、空間重心法を用いる場合を例に挙げて説明したが、時間重心法を用いても良い。   In each of the above-described embodiments, the case where the space centroid method is used has been described as an example, but the time centroid method may be used.

また、上記した各実施形態では、いわゆる光切断方式の3次元形状測定装置を例に挙げて説明したが、他の手法を用いた3次元形状測定装置にも本発明を同様に適用することができる。例えば、位相シフト方式の3次元形状測定装置に適用する場合には、異なる複数の位相で生成した画像を合成することにより、テキスチャ画像を生成することができる。   In each of the above-described embodiments, a so-called light-cutting three-dimensional shape measuring apparatus has been described as an example. However, the present invention can be similarly applied to three-dimensional shape measuring apparatuses using other methods. it can. For example, when applied to a phase shift type three-dimensional shape measuring apparatus, a texture image can be generated by combining images generated at a plurality of different phases.

第1実施形態の3次元形状測定装置1の構成を示す図である。It is a figure which shows the structure of the three-dimensional shape measuring apparatus 1 of 1st Embodiment. 第1実施形態の3次元形状測定装置1の測定時の動作を示すフローチャートである。It is a flowchart which shows the operation | movement at the time of the measurement of the three-dimensional shape measuring apparatus 1 of 1st Embodiment. テキスチャについて説明する図である。It is a figure explaining a texture. 測定の流れを説明する図である。It is a figure explaining the flow of a measurement. 第2実施形態の3次元形状測定装置の測定時の動作を示すフローチャートである。It is a flowchart which shows the operation | movement at the time of the measurement of the three-dimensional shape measuring apparatus of 2nd Embodiment.

符号の説明Explanation of symbols

1…3次元形状測定装置,2…投光部、3…被検物体ホルダ、4…被検物体ホルダ駆動ステージ、5…撮像部、5a…2次元光電変換素子、6…制御部、7…レーザ射出部、8…シリンドリカルレンズ
DESCRIPTION OF SYMBOLS 1 ... Three-dimensional shape measuring apparatus, 2 ... Projection part, 3 ... Test object holder, 4 ... Test object holder drive stage, 5 ... Imaging part, 5a ... Two-dimensional photoelectric conversion element, 6 ... Control part, 7 ... Laser emission part, 8 ... Cylindrical lens

Claims (10)

所定のスリット形状を有するパターン光を、被検物体に対して第1の方向から投光する投光手段と、
2次元光電変換素子を備え、前記被検物体から反射した前記パターン光の像を、前記第1の方向と異なる方向から前記2次元光電変換素子により撮像する撮像手段と、
前記投光手段と前記被検物体との相対位置を変更し、前記投光手段によるパターン光を前記被検物体上で走査する変更手段と、
前記被検物体の表面の凹凸に起因するテキスチャを推定する推定手段と、
前記撮像手段により生成した画像を、前記推定手段により推定した前記テキスチャに基づいて補正する補正手段と、
前記補正手段による補正後の補正画像に基づいて、前記被検物体の3次元形状を演算する演算手段と、を備え、
前記被検物体上での複数の異なる位置での前記画像を前記走査方向に沿って合成した合成画像に基づいて、前記推定手段は前記被検物体の表面の凹凸に起因するテキスチャを推定する
とを特徴とする3次元形状測定装置。
Light projecting means for projecting pattern light having a predetermined slit shape from the first direction to the object to be examined;
An imaging means comprising a two-dimensional photoelectric conversion element, and imaging the pattern light image reflected from the object to be examined by the two-dimensional photoelectric conversion element from a direction different from the first direction;
Changing the relative position between the light projecting means and the test object, and changing means for scanning the test object with the pattern light by the light projecting means;
Estimating means for estimating texture caused by irregularities on the surface of the object to be examined;
Correction means for correcting the image generated by the imaging means based on the texture estimated by the estimation means;
A calculation unit that calculates a three-dimensional shape of the test object based on the corrected image corrected by the correction unit ;
Based on a combined image obtained by combining the images at a plurality of different positions on the test object along the scanning direction, the estimation unit estimates texture caused by unevenness on the surface of the test object.
3-dimensional shape measuring device comprising a call.
請求項1に記載の3次元形状測定装置において、
前記撮像手段により生成した画像から、スリット形状を有する前記パターン光の画像を抽出する抽出手段をさらに備え、
前記抽出手段により抽出された複数の異なる位置での前記パターン光の画像を前記走査方向に沿って合成した合成画像に基づいて、前記推定手段は前記被検物体の表面の凹凸に起因するテキスチャを推定する
ことを特徴とする3次元形状測定装置。
The three-dimensional shape measuring apparatus according to claim 1,
An extraction means for extracting an image of the pattern light having a slit shape from the image generated by the imaging means ;
Based on a composite image obtained by combining the pattern light images extracted at the plurality of different positions extracted by the extraction unit along the scanning direction, the estimation unit performs a texture caused by unevenness on the surface of the test object. A three-dimensional shape measuring apparatus characterized by estimating.
請求項1または請求項2に記載の3次元形状測定装置において
前記撮像手段は、前記投光手段と異なる光による前記被検物体の表面を撮像して画像を生成し、
前記異なる光による画像を用いて、前記投光手段の前記パターン光による前記被検物表面の凹凸に起因するテキスチャを、前記推定手段推定する
ことを特徴とする3次元形状測定装置。
In the three-dimensional shape measuring apparatus according to claim 1 or 2 ,
The imaging unit generates an image by imaging the surface of the object to be inspected by light different from the light projecting unit ,
Said different using an image due to light, a texture due to the unevenness of the surface of the test object by the pattern light of the light projecting means, said estimating means the three-dimensional shape measuring apparatus and estimating.
請求項1ないし請求項3のいずれか一項に記載の3次元形状測定装置において、
前記合成画像は、前記複数の異なる位置での画像それぞれを前記変更手段による所定の送り量で前記走査方向にずらしつつ前記スリット形状の長手方向で揃うように合成された画像であ
ことを特徴とする3次元形状測定装置。
In the three-dimensional shape measuring apparatus according to any one of claims 1 to 3,
The composite image, wherein the Ru composite image der to align in the longitudinal direction of the slit-shaped while shifting the scanning direction at a predetermined feed amount each image by the changing means in said plurality of different positions A three-dimensional shape measuring apparatus.
請求項1ないし請求項4のいずれか一項に記載の3次元形状測定装置において、
前記テキスチャは、前記被検物体の表面の凹凸に起因する前記撮像手段により生成した画像における不均一な輝度成分であることを特徴とする3次元形状測定装置
In the three-dimensional shape measuring apparatus according to any one of claims 1 to 4,
The three-dimensional shape measuring apparatus according to claim 1, wherein the texture is a non-uniform luminance component in an image generated by the imaging unit due to unevenness of a surface of the object to be examined.
所定のスリット形状を有するパターン光を、被検物体に対して第1の方向から投光する投光手順と、
前記被検物体から反射した前記パターン光の像を、前記第1の方向と異なる方向から2次元光電変換素子により撮像する撮像手順と、
前記パターン光を投光する投光手段と前記被検物体との相対位置を変更し、前記投光手段によるパターン光を前記被検物体上で走査する変更手順と、
前記被検物体の表面の凹凸に起因するテキスチャを推定する推定手順と、
前記撮像手順により生成した画像を、前記推定手順により推定したテキスチャに基づいて補正する補正手順と、
前記補正手順による補正後の補正画像に基づいて、前記被検物体の3次元形状を演算する演算手順と、を備え、
前記被検物体上での複数の異なる位置での前記画像を前記走査方向に沿って合成した合成画像に基づいて、前記推定手順は前記被検物体の表面の凹凸に起因するテキスチャを推定する
ことを特徴とする3次元形状測定方法。
A light projecting procedure for projecting pattern light having a predetermined slit shape from the first direction to the object to be examined;
An imaging procedure for capturing an image of the pattern light reflected from the test object from a direction different from the first direction by a two-dimensional photoelectric conversion element;
A change procedure for changing the relative position between the light projecting means for projecting the pattern light and the test object, and scanning the pattern light by the light projecting means on the test object,
An estimation procedure for estimating texture due to irregularities on the surface of the test object;
A correction procedure for correcting the image generated by the imaging procedure based on the texture estimated by the estimation procedure;
A calculation procedure for calculating the three-dimensional shape of the test object based on the corrected image corrected by the correction procedure,
Based on a composite image obtained by combining the images at a plurality of different positions on the test object along the scanning direction, the estimation procedure estimates texture caused by unevenness on the surface of the test object. A three-dimensional shape measuring method characterized by the above.
請求項6に記載の3次元形状測定方法において、
前記撮像手順により生成した画像から、スリット形状を有する前記パターン光の画像を抽出する抽出手順をさらに備え、
前記抽出手順により抽出された複数の異なる位置での前記パターン光の画像を前記走査方向に沿って合成した合成画像に基づいて、前記推定手順は前記被検物体の表面の凹凸に起因するテキスチャを推定する
ことを特徴とする3次元形状測定方法。
The three-dimensional shape measuring method according to claim 6,
An extraction procedure for extracting an image of the pattern light having a slit shape from the image generated by the imaging procedure ;
Based on the synthesized image obtained by synthesizing the pattern light images at the different positions extracted by the extraction procedure along the scanning direction, the estimation procedure performs the texture caused by the unevenness of the surface of the object to be examined. A three-dimensional shape measuring method characterized by estimating.
請求項6または請求項7に記載の3次元形状測定方法において、
前記撮像手順は、前記投光手段と異なる光による前記被検物体の表面を撮像して画像を生成し
前記異なる光による画像を用いて、前記投光手段の前記パターン光による前記被検物表面の凹凸に起因するテキスチャを、前記推定手順推定する
ことを特徴とする3次元形状測定方法。
In the three-dimensional shape measuring method according to claim 6 or 7,
In the imaging procedure, an image is generated by imaging the surface of the object to be inspected with light different from the light projecting means ,
Said different using an image due to light, three-dimensional shape measuring method of the texture caused by the unevenness of the surface of the test object by the pattern light of the light projecting means, the estimation procedure is characterized in that estimation.
請求項6ないし請求項8のいずれか一項に記載の3次元形状測定方法において、In the three-dimensional shape measuring method according to any one of claims 6 to 8,
前記合成画像は、前記複数の異なる位置での前記画像それぞれを前記変更手順による所定の送り量で前記走査方向にずらしつつ前記スリット形状の長手方向で揃うように合成された画像であるThe synthesized image is an image synthesized such that the images at the plurality of different positions are aligned in the longitudinal direction of the slit shape while being shifted in the scanning direction by a predetermined feed amount according to the changing procedure.
ことを特徴とする3次元形状測定方法。A three-dimensional shape measuring method characterized by the above.
請求項6ないし請求項9のいずれか一項に記載の3次元形状測方法において、The three-dimensional shape measuring method according to any one of claims 6 to 9,
前記テキスチャは、前記被検物体の表面の凹凸に起因する前記撮像手順により生成した画像における不均一な輝度成分であることを特徴とする3次元形状測定方法。The three-dimensional shape measuring method, wherein the texture is a non-uniform luminance component in an image generated by the imaging procedure due to unevenness of a surface of the test object.
JP2008023912A 2008-02-04 2008-02-04 Three-dimensional shape measuring apparatus and three-dimensional shape measuring method Active JP5163163B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2008023912A JP5163163B2 (en) 2008-02-04 2008-02-04 Three-dimensional shape measuring apparatus and three-dimensional shape measuring method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2008023912A JP5163163B2 (en) 2008-02-04 2008-02-04 Three-dimensional shape measuring apparatus and three-dimensional shape measuring method

Publications (2)

Publication Number Publication Date
JP2009186217A JP2009186217A (en) 2009-08-20
JP5163163B2 true JP5163163B2 (en) 2013-03-13

Family

ID=41069618

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008023912A Active JP5163163B2 (en) 2008-02-04 2008-02-04 Three-dimensional shape measuring apparatus and three-dimensional shape measuring method

Country Status (1)

Country Link
JP (1) JP5163163B2 (en)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6478713B2 (en) * 2015-03-04 2019-03-06 キヤノン株式会社 Measuring device and measuring method
WO2018211663A1 (en) * 2017-05-18 2018-11-22 株式会社Pfu Measurement device, measurement method, determination method, and program

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH03289505A (en) * 1990-04-06 1991-12-19 Nippondenso Co Ltd Three-dimensional shape measuring apparatus
JP3575693B2 (en) * 2001-03-25 2004-10-13 オムロン株式会社 Optical measuring device
JP3884321B2 (en) * 2001-06-26 2007-02-21 オリンパス株式会社 3D information acquisition apparatus, projection pattern in 3D information acquisition, and 3D information acquisition method

Also Published As

Publication number Publication date
JP2009186217A (en) 2009-08-20

Similar Documents

Publication Publication Date Title
US7643159B2 (en) Three-dimensional shape measuring system, and three-dimensional shape measuring method
JP6299111B2 (en) Laser processing equipment
JP4830871B2 (en) 3D shape measuring apparatus and 3D shape measuring method
JP5256745B2 (en) 3D shape measuring device
EP3594617B1 (en) Three-dimensional-shape measurement device, three-dimensional-shape measurement method, and program
JP2009031150A (en) Three-dimensional shape measuring device, three-dimensional shape measurement method, three-dimensional shape measurement program, and record medium
JP2006268835A (en) Method and device for predicting focus position
JP5488456B2 (en) Shape measuring apparatus and method, and program
JP2006023178A (en) 3-dimensional measuring method and device
JP5163163B2 (en) Three-dimensional shape measuring apparatus and three-dimensional shape measuring method
CN112014858A (en) Distance image generating device for correcting distance measurement abnormality
US20190108617A1 (en) Image processing apparatus, system, image processing method, calibration method, and computer-readable recording medium
JP2006084286A (en) Three-dimensional measuring method and its measuring device
JP2007322259A (en) Edge detecting method, apparatus and program
WO2013035847A1 (en) Shape measurement device, structure manufacturing system, shape measurement method, structure manufacturing method, shape measurement program, and computer-readable recording medium
JP5420942B2 (en) Pattern drawing apparatus and pattern drawing method
JP4680640B2 (en) Image input apparatus and image input method
KR101465996B1 (en) Method for measurement of high speed 3d shape using selective long period
EP3070432B1 (en) Measurement apparatus
JP7516728B2 (en) Scanning measurement method and scanning measurement device
JP2009186216A (en) Three-dimensional shape measuring device
JP2010025803A (en) Inspection device having positioning function, program therefor, inspection method of inspection device having positioning function
JP6657880B2 (en) Image processing apparatus, image processing method, and program
JP2005223563A (en) Line sensor image reader
JP6523992B2 (en) Image acquisition method, image acquisition apparatus and scanning microscope

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20110131

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110323

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20120525

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20120605

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120803

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20121120

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20121203

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20151228

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Ref document number: 5163163

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20151228

Year of fee payment: 3

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250