JP5163163B2 - Three-dimensional shape measuring apparatus and three-dimensional shape measuring method - Google Patents
Three-dimensional shape measuring apparatus and three-dimensional shape measuring method Download PDFInfo
- Publication number
- JP5163163B2 JP5163163B2 JP2008023912A JP2008023912A JP5163163B2 JP 5163163 B2 JP5163163 B2 JP 5163163B2 JP 2008023912 A JP2008023912 A JP 2008023912A JP 2008023912 A JP2008023912 A JP 2008023912A JP 5163163 B2 JP5163163 B2 JP 5163163B2
- Authority
- JP
- Japan
- Prior art keywords
- image
- dimensional shape
- shape measuring
- test object
- imaging
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims description 47
- 238000003384 imaging method Methods 0.000 claims description 61
- 238000012360 testing method Methods 0.000 claims description 58
- 238000012937 correction Methods 0.000 claims description 10
- 239000002131 composite material Substances 0.000 claims description 9
- 238000006243 chemical reaction Methods 0.000 claims description 8
- 238000000605 extraction Methods 0.000 claims description 7
- 230000002194 synthesizing effect Effects 0.000 claims description 3
- 238000005259 measurement Methods 0.000 description 14
- 238000001514 detection method Methods 0.000 description 6
- 230000005484 gravity Effects 0.000 description 3
- 238000012545 processing Methods 0.000 description 3
- 238000010586 diagram Methods 0.000 description 1
- 238000009792 diffusion process Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 239000000284 extract Substances 0.000 description 1
- 239000002184 metal Substances 0.000 description 1
- 230000010363 phase shift Effects 0.000 description 1
Images
Landscapes
- Length Measuring Devices By Optical Means (AREA)
Description
本発明は、撮像手段の出力に基づいて被検物体の3次元形状を測定する3次元形状測定装置および3次元形状測定方法に関する。 The present invention relates to a three-dimensional shape measuring apparatus and a three-dimensional shape measuring method for measuring a three-dimensional shape of a test object based on an output of an imaging means.
従来から、所定のパターンを有するパターン光を投光して3次元形状を測定する測定装置が知られている(例えば、特許文献1参照)。このような装置では、被検物体のうち、パターン光を投光する部分の形状に応じたパターン光の変形具合に基づいて、被検物体の3次元形状を測定する。
しかし、上述した装置において、被検物体の表面の凹凸等に起因したテキスチャが存在すると、パターン光の変形具合の検出が不安定になる。このような場合、誤検出や検出誤差が発生し、精密測定に適さないという問題がある。 However, in the above-described apparatus, if there is a texture due to unevenness on the surface of the object to be examined, detection of the pattern light deformation becomes unstable. In such a case, there is a problem that erroneous detection or detection error occurs and it is not suitable for precise measurement.
本発明の3次元形状測定装置および3次元形状測定方法は、被検物体の表面のテキスチャによる影響を抑え、高精度な測定を行うことを目的とする。 An object of the three-dimensional shape measuring apparatus and the three-dimensional shape measuring method of the present invention is to suppress the influence due to the texture of the surface of the object to be measured and perform highly accurate measurement.
本発明の3次元形状測定装置は、所定のスリット形状を有するパターン光を、被検物体に対して第1の方向から投光する投光手段と、2次元光電変換素子を備え、前記被検物体から反射した前記パターン光の像を、前記第1の方向と異なる方向から前記2次元光電変換素子により撮像する撮像手段と、前記投光手段と前記被検物体との相対位置を変更し、前記投光手段によるパターン光を前記被検物体上で走査する変更手段と、前記被検物体の表面の凹凸に起因するテキスチャを推定する推定手段と、前記撮像手段により生成した画像を、前記推定手段により推定したテキスチャに基づいて補正する補正手段と、前記補正手段による補正後の補正画像に基づいて、前記被検物体の3次元形状を演算する演算手段と、を備え、前記被検物体上での複数の異なる位置での前記画像を前記走査方向に沿って合成した合成画像に基づいて、前記推定手段は前記被検物体の表面の凹凸に起因するテキスチャを推定する。 The three-dimensional shape measuring apparatus of the present invention includes a light projecting unit that projects pattern light having a predetermined slit shape from a first direction onto a test object, and a two-dimensional photoelectric conversion element. Changing the relative position between the imaging means for imaging the image of the pattern light reflected from the object by the two-dimensional photoelectric conversion element from a direction different from the first direction, and the light projecting means and the test object; A changing means for scanning pattern light by the light projecting means on the test object, an estimation means for estimating texture due to irregularities on the surface of the test object, and an image generated by the imaging means and correcting means for correcting, based on the texture estimated by means, on the basis of the corrected image corrected by said correction means, wherein comprising calculating means for calculating the three-dimensional shape of the test object, wherein the object to be detected on the so Based on the combined composite image along said image at a plurality of different positions in the scanning direction, the estimating means you estimate texture due to unevenness of the surface of the test object.
また、前記撮像手段により生成した画像から、スリット形状を有する前記パターン光の画像を抽出する抽出手段をさらに備え、前記抽出手段により抽出された複数の異なる位置での前記パターン光の画像を前記走査方向に沿って合成した合成画像に基づいて、前記推定手段は前記被検物体の表面の凹凸に起因するテキスチャを推定しても良い。
また、前記撮像手段は、前記投光手段と異なる光による前記被検物体の表面を撮像して画像を生成し、前記異なる光による画像を用いて、前記投光手段の前記パターン光による前記被検物表面の凹凸に起因するテキスチャを、前記推定手段は推定しても良い。
また、前記合成画像は、前記複数の異なる位置での前記画像それぞれを前記変更手段による所定の送り量で前記走査方向にずらしつつ前記スリット形状の長手方向で揃うように合成された画像であっても良い。
また、前記テキスチャは、前記被検物体の表面の凹凸に起因する前記撮像手段により生成した画像における不均一な輝度成分であっても良い。
Also, the image generated by the imaging means further includes an extraction means for extracting an image of the pattern light having a slit shape, the scanning image of the pattern light in a plurality of different positions extracted by the extraction means Based on the synthesized image synthesized along the direction, the estimating means may estimate the texture due to the unevenness of the surface of the object to be examined.
In addition, the imaging unit generates an image by imaging the surface of the object to be inspected by light different from the light projecting unit, and uses the image by the different light to generate the image by the pattern light of the light projecting unit. The estimation means may estimate the texture resulting from the irregularities on the surface of the specimen.
Further, the synthesized image is an image synthesized so that the images at the plurality of different positions are aligned in the longitudinal direction of the slit shape while being shifted in the scanning direction by a predetermined feed amount by the changing means. Also good.
Further, the texture may be a non-uniform luminance component in an image generated by the imaging unit due to unevenness on the surface of the object to be examined.
なお、上記発明に関する構成を、撮像手段の出力に基づいて被検物体の3次元形状を測定する3次元形状測定方法に変換して表現したものも本発明の具体的態様として有効である。 It is also effective as a specific aspect of the present invention to express the configuration related to the above invention by converting it into a three-dimensional shape measuring method for measuring the three-dimensional shape of the object to be examined based on the output of the imaging means.
本発明の3次元形状測定装置および3次元形状測定方法によれば、被検物体の表面のテキスチャによる影響を抑え、高精度な測定を行うことができる。 According to the three-dimensional shape measuring apparatus and the three-dimensional shape measuring method of the present invention, it is possible to suppress the influence of the surface texture of the object to be inspected and perform highly accurate measurement.
以下、図面を用いて本発明の実施形態について説明する。 Hereinafter, embodiments of the present invention will be described with reference to the drawings.
図1は、本実施形態の3次元形状測定装置1の構成を示す図である。図1に示すように、3次元形状測定装置1は、投光部2、被検物体ホルダ3、被検物体ホルダ駆動ステージ4、撮像部5の各部を備えるとともに、各部を制御する制御部6を備える。
FIG. 1 is a diagram illustrating a configuration of a three-dimensional shape measuring apparatus 1 according to the present embodiment. As shown in FIG. 1, the three-dimensional shape measuring apparatus 1 includes a
投光部2は、光ビームを射出するレーザ射出部7と、レーザ射出部7から射出された光ビームをスリット形状に整形するシリンドリカルレンズ8とを備える。
The
被検物体ホルダ3は、その上面に被検物体Tを保持する。また、被検物体ホルダ駆動ステージ4は、1軸のステージであり、被検物体ホルダ3を上述したスリットの長手方向と垂直な方向(矢印Aの方向)に駆動する。撮像部5は、不図示のレンズや2次元光電変換素子5aを備え、光ビームが投光された被検物体Tの反射像を、光ビームが投光される方向と異なる方向から撮像する。
The
以上説明した構成の3次元形状測定装置1の測定時の動作について、図2に示すフローチャートを用いて説明する。 The operation at the time of measurement of the three-dimensional shape measuring apparatus 1 having the above-described configuration will be described with reference to the flowchart shown in FIG.
はじめに、被検物体Tの表面の凹凸に起因したテキスチャが存在する場合に、撮像部5により生成される画像に発生する問題について説明する。テキスチャには、被検物体Tの表面の傷や微細な凹凸等により発生するものがある。被検物体Tの表面にこのようなテキスチャが存在すると、撮像部5により生成される画像が暗くなったり、画像中の光ビームの像の輝度が不均一になったり、部分的に輝点が発生したりする。このような問題が発生すると、光ビームの像の検出が不安定になる。例えば、後述するようにピーク位置を検出する際に、テキスチャが存在しない場合には、図3Aに示すようにピーク位置Pを検出可能である。しかし、テキスチャが存在する場合には、例えば図3Bに示すようにカーブの形状が変形してしまい、重心がずれ込みピーク位置を検出することができなかったり、誤検出してしまうおそれがある。図2のフローチャートはこのような問題に対応するための処理の一例を示す。 First, a problem that occurs in an image generated by the imaging unit 5 when there is texture due to the unevenness of the surface of the test object T will be described. Some textures are caused by scratches or fine irregularities on the surface of the test object T. When such a texture exists on the surface of the test object T, the image generated by the imaging unit 5 becomes dark, the brightness of the image of the light beam in the image becomes uneven, or a bright spot is partially present. Occur. When such a problem occurs, detection of the light beam image becomes unstable. For example, when the peak position is detected as described later, if no texture exists, the peak position P can be detected as shown in FIG. 3A. However, when the texture exists, for example, as shown in FIG. 3B, the shape of the curve is deformed, the center of gravity shifts, and the peak position may not be detected or may be erroneously detected. The flowchart in FIG. 2 shows an example of processing for dealing with such a problem.
ステップS1において、制御部6は、光ビームの走査を開始する。制御部6は、投光部2を制御して被検物体Tへの光ビームの投光を開始するとともに、被検物体ホルダ駆動ステージ4を制御して、被検物体ホルダ3を図1の矢印Aの方向に駆動する。この結果、被検物体Tに対する光ビームの走査が開始される。制御部6は、被検物体ホルダ駆動ステージ4を制御して、例えば、80μmステップで被検物体ホルダ3を駆動する。
In step S1, the control unit 6 starts scanning the light beam. The control unit 6 controls the
ステップS2において、制御部6は、撮像部5を制御して、被検物体Tの撮像を開始する。なお、撮像部5による撮像は所定の時間間隔で繰り返し行われる。このとき、被検物体Tのうち光ビームが投光されている部分が平坦であれば、撮像により生成される光ビームの像は直線になる。また、被検物体Tのうち光ビームが投光されている部分に凹凸があれば、奥行き方向の位置に応じて光ビームの像が変形する。また、制御部6は、撮像により生成した画像を制御部6内の不図示のメモリに一旦記録する。なお、制御部6は、上述したステップ送り量である80μmごとに撮像を繰り返し行う。このような繰り返しの撮像により、図4Aに示すように、複数本のスリット形状の画像が時系列的に生成されることになる。 In step S <b> 2, the control unit 6 controls the imaging unit 5 to start imaging of the test object T. Note that imaging by the imaging unit 5 is repeatedly performed at predetermined time intervals. At this time, if the portion of the test object T where the light beam is projected is flat, the image of the light beam generated by imaging is a straight line. Further, if the portion of the test object T where the light beam is projected has irregularities, the image of the light beam is deformed according to the position in the depth direction. The control unit 6 once records an image generated by imaging in a memory (not shown) in the control unit 6. Note that the control unit 6 repeatedly performs imaging every 80 μm, which is the step feed amount described above. By such repeated imaging, a plurality of slit-shaped images are generated in time series as shown in FIG. 4A.
ステップS3において、制御部6は、環境光成分を補正する。被検物体Tの表面が金属面である場合、上述したテキスチャは拡散光の不安定性に起因し、入射角の影響を強く受ける。したがって、測定対象である光ビームによるテキスチャと環境光によるテキスチャとは一般には異なったものになる。そこで、制御部6は、ステップS2で生成した画像の環境光成分を補正する。その結果、測定対象である光ビームによるテキスチャのみの画像を得ることができる。 In step S3, the control unit 6 corrects the ambient light component. When the surface of the test object T is a metal surface, the above-described texture is strongly influenced by the incident angle due to the instability of diffused light. Accordingly, the texture by the light beam to be measured is generally different from the texture by the ambient light. Therefore, the control unit 6 corrects the ambient light component of the image generated in step S2. As a result, it is possible to obtain an image of only the texture by the light beam to be measured.
環境光成分を補正する方法には、以下の2つがある。1つ目は、投光部2を一旦消灯し、環境光成分のみを撮像部5により撮像して画像を生成し、生成した画像に基づいて補正する方法である。この画像には、環境光成分に相当する出力のみが現れることになる。この方法を用いる場合、制御部6は、ステップS3において、投光部2を一旦消灯し、撮像部5を制御して撮像を行う。2つ目は、通常の測定時に撮像部5により撮像した画像を解析し、解析結果に基づいて補正する方法である。この方法を用いる場合、制御部6は、ステップS2で生成した画像の輝度に基づいて、光ビームに相当するスリット形状の部分のみを抽出し、それ以外の部分を環境光成分として減算する。
There are the following two methods for correcting the ambient light component. The first is a method in which the
ステップS4において、制御部6は、予め定められた全範囲における撮像を完了したか否かを判定する。そして、制御部6は、全範囲における撮像を完了したと判定するとステップS5に進む。一方、全範囲における撮像を完了していないと判定すると、制御部6は、ステップS2に戻り、所定の時間間隔の撮像を継続する。ステップS4において、全範囲における撮像を完了したと判定した際には、図4Bに示すように、環境光成分が補正された複数本のスリット形状の画像が生成されることになる。 In step S4, the control unit 6 determines whether or not the imaging in the entire predetermined range has been completed. If the control unit 6 determines that imaging in the entire range has been completed, the process proceeds to step S5. On the other hand, if it is determined that imaging in the entire range has not been completed, the control unit 6 returns to step S2 and continues imaging at a predetermined time interval. When it is determined in step S4 that imaging in the entire range has been completed, as shown in FIG. 4B, a plurality of slit-shaped images in which the ambient light components are corrected are generated.
ステップS5において、制御部6は、ステップS2における撮像により生成した全ての画像を合成する。制御部6は、環境光成分が補正された複数本のスリット形状の画像を合成してテキスチャ画像を生成する。ただし、制御部6は、合成する際にはシフト分を考慮して合成する。被検物体T換算で例えば、1pixel=40μmであるとすると、上述したようにステップ送り量は80μmであるため、2pixelずつシフトして合成する。 In step S5, the control unit 6 combines all the images generated by the imaging in step S2. The controller 6 generates a texture image by combining a plurality of slit-shaped images in which the ambient light component is corrected. However, the control unit 6 combines in consideration of the shift when combining. Assuming that 1 pixel = 40 μm in terms of the test object T, for example, as described above, the step feed amount is 80 μm, so that the two-pixel shifts are combined.
このように、複数本のスリット形状の画像を合成してテキスチャ画像を生成することにより、被検物体Tの表面の微細構造が均一でない場合でも、総合的にとらえることができる。図4Cに合成画像の生成の例を示す。ただし、図4Cでは、説明のためにテキスチャ画像を斜線で示しているが、実際は、被検物体Tの表面の凹凸に起因した模様などがテキスチャ画像として表れる。 In this way, by synthesizing a plurality of slit-shaped images to generate a texture image, even if the fine structure of the surface of the test object T is not uniform, it can be comprehensively captured. FIG. 4C shows an example of generating a composite image. However, in FIG. 4C, the texture image is indicated by diagonal lines for the sake of explanation, but in reality, a pattern or the like due to the unevenness of the surface of the test object T appears as the texture image.
ステップS6において、制御部6は、ステップS2における撮像により生成した画像のテキスチャを、ステップS5において合成した合成画像に基づいて補正する。例えば、制御部6は、制御部6内の不図示のメモリからステップS2における撮像により生成した複数の画像を読み出し、それぞれに画像について、ステップS5で生成したテキスチャ画像に基づいて補正する。例えば、制御部6は、ステップS2における撮像により生成したある画像の輝度を、テキスチャ画像のうち、ステップS2における撮像により生成した画像に該当する位置の輝度値で除算することにより補正する。テキスチャ画像の輝度値は、被検物体Tの反射率を反映している。そのため、テキスチャ画像の輝度値で除算することにより、反射率を1に換算して補正することができる。このような補正を行うと、画像の明るさを回復し、輝度を均一にするとともに、部分的に発生していた輝点を解消することができる。 In step S6, the control unit 6 corrects the texture of the image generated by the imaging in step S2 based on the synthesized image synthesized in step S5. For example, the control unit 6 reads a plurality of images generated by imaging in step S2 from a memory (not shown) in the control unit 6, and corrects each image based on the texture image generated in step S5. For example, the control unit 6 corrects the luminance of a certain image generated by the imaging in step S2 by dividing the luminance value of the position corresponding to the image generated by the imaging in step S2 among the texture images. The luminance value of the texture image reflects the reflectance of the test object T. Therefore, the reflectance can be converted to 1 and corrected by dividing by the luminance value of the texture image. When such correction is performed, the brightness of the image can be restored, the luminance can be made uniform, and the bright spots that have been partially generated can be eliminated.
ステップS7において、制御部6は、ステップS6でテキスチャを補正した画像に基づいて、ピーク、重心などを求める。 In step S7, the control unit 6 obtains a peak, a center of gravity, and the like based on the image in which the texture is corrected in step S6.
ステップS8において、制御部6は、ステップS7の検出結果に基づいて、被検物体Tの3次元形状を演算する。 In step S8, the control unit 6 calculates the three-dimensional shape of the test object T based on the detection result of step S7.
以上説明したように、第1実施形態によれば、被検物体の表面の凹凸に起因するテキスチャを推定し、撮像手段により生成した画像を、推定したテキスチャに基づいて補正する。そして、補正後の補正画像に基づいて、被検物体の3次元形状を演算する。したがって、被検物体の表面のテキスチャによる影響を抑え、被検物体により忠実な、高精度な測定を行うことができる。 As described above, according to the first embodiment, the texture caused by the unevenness of the surface of the object to be examined is estimated, and the image generated by the imaging unit is corrected based on the estimated texture. Then, the three-dimensional shape of the test object is calculated based on the corrected image after correction. Therefore, the influence of the texture of the surface of the test object can be suppressed, and the measurement can be performed with higher accuracy and more faithful to the test object.
また、第1実施形態によれば、複数の画像を合成して生成した合成画像に基づいて、テキスチャを推定する。したがって、より確実にテキスチャによる影響を抑えることができる。 Further, according to the first embodiment, the texture is estimated based on a composite image generated by combining a plurality of images. Therefore, it is possible to suppress the influence of the texture more reliably.
また、第1実施形態によれば、投光手段と被検物体との相対位置を変更する変更手段をさらに備え、投光手段は、スリット形状を有するパターン光を投光する。そして、複数の異なる相対位置における画像を合成した合成画像に基づいて、テキスチャを推定する。したがって、より正確にテキスチャを推定することができ、より正確にテキスチャを補正することができる。 In addition, according to the first embodiment, the projector further includes a changing unit that changes the relative position between the light projecting unit and the object to be examined, and the light projecting unit projects the pattern light having the slit shape. Then, the texture is estimated based on a composite image obtained by combining images at a plurality of different relative positions. Therefore, the texture can be estimated more accurately, and the texture can be corrected more accurately.
また、第1実施形態によれば、スリット形状を有するパターン光の画像を抽出する抽出手段をさらに備え、複数の異なる相対位置において抽出したパターン光の画像を合成した合成画像に基づいて、テキスチャを推定する。したがって、環境光成分の影響に配慮し、より正確な測定を実現することができる。 In addition, according to the first embodiment, the image processing apparatus further includes extraction means for extracting a pattern light image having a slit shape, and the texture is obtained based on a composite image obtained by combining the pattern light images extracted at a plurality of different relative positions. presume. Therefore, more accurate measurement can be realized in consideration of the influence of the ambient light component.
<第2実施形態>
以下、図面を用いて本発明の第2実施形態について説明する。第2実施形態では、第1実施形態と異なる部分についてのみ説明する。
Second Embodiment
The second embodiment of the present invention will be described below with reference to the drawings. In the second embodiment, only different parts from the first embodiment will be described.
第2実施形態の3次元形状測定装置は、第1実施形態の3次元形状測定装置1と同様の構成を有する。以下では、第1実施形態の図1と同様の記号を用いて説明する。 The three-dimensional shape measuring apparatus of the second embodiment has the same configuration as the three-dimensional shape measuring apparatus 1 of the first embodiment. Below, it demonstrates using the symbol similar to FIG. 1 of 1st Embodiment.
図5は、第2実施形態の3次元形状測定装置の測定時の動作を示すフローチャートである。 FIG. 5 is a flowchart showing an operation during measurement of the three-dimensional shape measuring apparatus according to the second embodiment.
ステップS11において、制御部6は、テキスチャ情報を取得する。テキスチャ情報を取得する方法には、以下の2つがある。1つ目は、不図示の拡散光源を用いて、撮像部5により撮像して画像を生成する方法である。生成された画像は、第1実施形態で説明したテキスチャ画像に相当する画像であり、この画像を用いて後述するテキスチャの補正を行うことができる。なお、投光部2が、拡散光源とスリットマスクとからなる構成である場合には、スリットマスクを外して撮像を行うことによりテキスチャ画像に相当する画像を生成することができる。2つ目は、3次元形状測定装置1の外部からテキスチャ画像に相当する画像もしくはこれに準ずる情報を取得する方法である。
In step S11, the control unit 6 acquires texture information. There are the following two methods for acquiring texture information. The first is a method of generating an image by imaging with the imaging unit 5 using a diffusion light source (not shown). The generated image is an image corresponding to the texture image described in the first embodiment, and texture correction to be described later can be performed using this image. In addition, when the
ステップS12において、制御部6は、第1実施形態のステップS1と同様に、光ビームの走査を開始する。 In step S <b> 12, the control unit 6 starts scanning with a light beam as in step S <b> 1 of the first embodiment.
ステップS13において、制御部6は、第1実施形態のステップS2と同様に、撮像部5を制御して、被検物体Tの撮像を開始する。 In step S <b> 13, the control unit 6 controls the imaging unit 5 to start imaging of the test object T, similarly to step S <b> 2 of the first embodiment.
ステップS14において、制御部6は、第1実施形態のステップS3と同様に、環境光成分を補正する。 In step S14, the control unit 6 corrects the ambient light component as in step S3 of the first embodiment.
ステップS15において、制御部6は、ステップS11で取得したテキスチャ情報の基づいて、第1実施形態のステップS6と同様に、画像のテキスチャを補正する。本実施形態では、上述したようにステップS11においてテキスチャ情報を既に取得しているため、第1実施形態のように全範囲における撮像の完了を待つことなく、ステップS14において環境光成分を補正した画像から順にテキスチャの補正を行うことができる。 In step S15, the control unit 6 corrects the texture of the image based on the texture information acquired in step S11, as in step S6 of the first embodiment. In the present embodiment, since the texture information has already been acquired in step S11 as described above, the image in which the ambient light component is corrected in step S14 without waiting for completion of imaging in the entire range as in the first embodiment. The texture can be corrected in order.
ステップS16において、制御部6は、第1実施形態のステップS4と同様に、予め定められた全範囲における撮像を完了したか否かを判定する。そして、制御部6は、全範囲における撮像を完了したと判定するとステップS17に進む。一方、全範囲における撮像を完了していないと判定すると、制御部6は、ステップS12に戻り、ステップS12からステップS15の処理を継続する。 In step S <b> 16, the control unit 6 determines whether or not imaging in the entire predetermined range has been completed as in step S <b> 4 of the first embodiment. If the control unit 6 determines that imaging in the entire range has been completed, the process proceeds to step S17. On the other hand, if it determines with the imaging in the whole range not being completed, the control part 6 will return to step S12, and will continue the process of step S12 to step S15.
ステップS17において、制御部6は、第1実施形態のステップS7と同様に、ステップS15でテキスチャを補正した画像に基づいて、ピーク、重心などを求める。 In step S17, as in step S7 of the first embodiment, the control unit 6 obtains a peak, a center of gravity, and the like based on the image in which the texture is corrected in step S15.
ステップS18において、制御部6は、第1実施形態のステップS8と同様に、ステップS7の1検出結果に基づいて、被検物体Tの3次元形状を演算する。 In step S18, the control unit 6 calculates the three-dimensional shape of the test object T based on the one detection result in step S7, as in step S8 of the first embodiment.
以上説明したように、第2実施形態によれば、予め撮像手段により撮像したテキスチャ画像に基づいて、テキスチャを推定する。したがって、全範囲における撮像の完了を待つことなく、テキスチャの補正を開始することができるので、第1実施形態の効果に加えて、処理時間の短縮が期待できる。 As described above, according to the second embodiment, the texture is estimated based on the texture image previously captured by the imaging unit. Therefore, texture correction can be started without waiting for completion of imaging in the entire range, and in addition to the effects of the first embodiment, a reduction in processing time can be expected.
なお、上記した各実施形態では、被検物体ホルダ3を駆動して被検物体との相対位置を変更する例を示したが、被検物体ホルダ3を固定し、投光部2をスリットの長手方向と垂直な方向へ駆動して相対位置を変更する構成としても良い。さらに、測定精度よりも測定レンジを優先する用途においては、ポリゴンミラー等で光ビームの投光角を走査する構成としても良い。この場合、ある画素を光ビームが通過する際に、被検物体への投光角が変化してしまうことがある。そのため、拡散光が不安定な被検物体の場合には、測定精度が低下する場合がある。いずれの場合も、被検物体ホルダ3を固定し、投光位置を走査する際には、スリット光が2次元光電変換素子5a上を移動するので、第1実施形態のステップS5で説明した画像の合成の際に、シフト分を考慮する必要はない。
In each of the above-described embodiments, the example in which the
また、上記した各実施形態では、投光部2から投光される光ビームは、1本のスリット形状である例を示したが、弁別が可能である限り複数本のスリット形状であっても良い。
Further, in each of the above-described embodiments, the light beam projected from the
また、上記した各実施形態では、空間重心法を用いる場合を例に挙げて説明したが、時間重心法を用いても良い。 In each of the above-described embodiments, the case where the space centroid method is used has been described as an example, but the time centroid method may be used.
また、上記した各実施形態では、いわゆる光切断方式の3次元形状測定装置を例に挙げて説明したが、他の手法を用いた3次元形状測定装置にも本発明を同様に適用することができる。例えば、位相シフト方式の3次元形状測定装置に適用する場合には、異なる複数の位相で生成した画像を合成することにより、テキスチャ画像を生成することができる。 In each of the above-described embodiments, a so-called light-cutting three-dimensional shape measuring apparatus has been described as an example. However, the present invention can be similarly applied to three-dimensional shape measuring apparatuses using other methods. it can. For example, when applied to a phase shift type three-dimensional shape measuring apparatus, a texture image can be generated by combining images generated at a plurality of different phases.
1…3次元形状測定装置,2…投光部、3…被検物体ホルダ、4…被検物体ホルダ駆動ステージ、5…撮像部、5a…2次元光電変換素子、6…制御部、7…レーザ射出部、8…シリンドリカルレンズ
DESCRIPTION OF SYMBOLS 1 ... Three-dimensional shape measuring apparatus, 2 ... Projection part, 3 ... Test object holder, 4 ... Test object holder drive stage, 5 ... Imaging part, 5a ... Two-dimensional photoelectric conversion element, 6 ... Control part, 7 ... Laser emission part, 8 ... Cylindrical lens
Claims (10)
2次元光電変換素子を備え、前記被検物体から反射した前記パターン光の像を、前記第1の方向と異なる方向から前記2次元光電変換素子により撮像する撮像手段と、
前記投光手段と前記被検物体との相対位置を変更し、前記投光手段によるパターン光を前記被検物体上で走査する変更手段と、
前記被検物体の表面の凹凸に起因するテキスチャを推定する推定手段と、
前記撮像手段により生成した画像を、前記推定手段により推定した前記テキスチャに基づいて補正する補正手段と、
前記補正手段による補正後の補正画像に基づいて、前記被検物体の3次元形状を演算する演算手段と、を備え、
前記被検物体上での複数の異なる位置での前記画像を前記走査方向に沿って合成した合成画像に基づいて、前記推定手段は前記被検物体の表面の凹凸に起因するテキスチャを推定する
ことを特徴とする3次元形状測定装置。 Light projecting means for projecting pattern light having a predetermined slit shape from the first direction to the object to be examined;
An imaging means comprising a two-dimensional photoelectric conversion element, and imaging the pattern light image reflected from the object to be examined by the two-dimensional photoelectric conversion element from a direction different from the first direction;
Changing the relative position between the light projecting means and the test object, and changing means for scanning the test object with the pattern light by the light projecting means;
Estimating means for estimating texture caused by irregularities on the surface of the object to be examined;
Correction means for correcting the image generated by the imaging means based on the texture estimated by the estimation means;
A calculation unit that calculates a three-dimensional shape of the test object based on the corrected image corrected by the correction unit ;
Based on a combined image obtained by combining the images at a plurality of different positions on the test object along the scanning direction, the estimation unit estimates texture caused by unevenness on the surface of the test object.
3-dimensional shape measuring device comprising a call.
前記撮像手段により生成した画像から、スリット形状を有する前記パターン光の画像を抽出する抽出手段をさらに備え、
前記抽出手段により抽出された複数の異なる位置での前記パターン光の画像を前記走査方向に沿って合成した合成画像に基づいて、前記推定手段は前記被検物体の表面の凹凸に起因するテキスチャを推定する
ことを特徴とする3次元形状測定装置。 The three-dimensional shape measuring apparatus according to claim 1,
An extraction means for extracting an image of the pattern light having a slit shape from the image generated by the imaging means ;
Based on a composite image obtained by combining the pattern light images extracted at the plurality of different positions extracted by the extraction unit along the scanning direction, the estimation unit performs a texture caused by unevenness on the surface of the test object. A three-dimensional shape measuring apparatus characterized by estimating.
前記撮像手段は、前記投光手段と異なる光による前記被検物体の表面を撮像して画像を生成し、
前記異なる光による画像を用いて、前記投光手段の前記パターン光による前記被検物表面の凹凸に起因するテキスチャを、前記推定手段は推定する
ことを特徴とする3次元形状測定装置。 In the three-dimensional shape measuring apparatus according to claim 1 or 2 ,
The imaging unit generates an image by imaging the surface of the object to be inspected by light different from the light projecting unit ,
Said different using an image due to light, a texture due to the unevenness of the surface of the test object by the pattern light of the light projecting means, said estimating means the three-dimensional shape measuring apparatus and estimating.
前記合成画像は、前記複数の異なる位置での画像それぞれを前記変更手段による所定の送り量で前記走査方向にずらしつつ前記スリット形状の長手方向で揃うように合成された画像である
ことを特徴とする3次元形状測定装置。 In the three-dimensional shape measuring apparatus according to any one of claims 1 to 3,
The composite image, wherein the Ru composite image der to align in the longitudinal direction of the slit-shaped while shifting the scanning direction at a predetermined feed amount each image by the changing means in said plurality of different positions A three-dimensional shape measuring apparatus.
前記テキスチャは、前記被検物体の表面の凹凸に起因する前記撮像手段により生成した画像における不均一な輝度成分であることを特徴とする3次元形状測定装置。 In the three-dimensional shape measuring apparatus according to any one of claims 1 to 4,
The three-dimensional shape measuring apparatus according to claim 1, wherein the texture is a non-uniform luminance component in an image generated by the imaging unit due to unevenness of a surface of the object to be examined.
前記被検物体から反射した前記パターン光の像を、前記第1の方向と異なる方向から2次元光電変換素子により撮像する撮像手順と、
前記パターン光を投光する投光手段と前記被検物体との相対位置を変更し、前記投光手段によるパターン光を前記被検物体上で走査する変更手順と、
前記被検物体の表面の凹凸に起因するテキスチャを推定する推定手順と、
前記撮像手順により生成した画像を、前記推定手順により推定したテキスチャに基づいて補正する補正手順と、
前記補正手順による補正後の補正画像に基づいて、前記被検物体の3次元形状を演算する演算手順と、を備え、
前記被検物体上での複数の異なる位置での前記画像を前記走査方向に沿って合成した合成画像に基づいて、前記推定手順は前記被検物体の表面の凹凸に起因するテキスチャを推定する
ことを特徴とする3次元形状測定方法。 A light projecting procedure for projecting pattern light having a predetermined slit shape from the first direction to the object to be examined;
An imaging procedure for capturing an image of the pattern light reflected from the test object from a direction different from the first direction by a two-dimensional photoelectric conversion element;
A change procedure for changing the relative position between the light projecting means for projecting the pattern light and the test object, and scanning the pattern light by the light projecting means on the test object,
An estimation procedure for estimating texture due to irregularities on the surface of the test object;
A correction procedure for correcting the image generated by the imaging procedure based on the texture estimated by the estimation procedure;
A calculation procedure for calculating the three-dimensional shape of the test object based on the corrected image corrected by the correction procedure,
Based on a composite image obtained by combining the images at a plurality of different positions on the test object along the scanning direction, the estimation procedure estimates texture caused by unevenness on the surface of the test object. A three-dimensional shape measuring method characterized by the above.
前記撮像手順により生成した画像から、スリット形状を有する前記パターン光の画像を抽出する抽出手順をさらに備え、
前記抽出手順により抽出された複数の異なる位置での前記パターン光の画像を前記走査方向に沿って合成した合成画像に基づいて、前記推定手順は前記被検物体の表面の凹凸に起因するテキスチャを推定する
ことを特徴とする3次元形状測定方法。 The three-dimensional shape measuring method according to claim 6,
An extraction procedure for extracting an image of the pattern light having a slit shape from the image generated by the imaging procedure ;
Based on the synthesized image obtained by synthesizing the pattern light images at the different positions extracted by the extraction procedure along the scanning direction, the estimation procedure performs the texture caused by the unevenness of the surface of the object to be examined. A three-dimensional shape measuring method characterized by estimating.
前記撮像手順は、前記投光手段と異なる光による前記被検物体の表面を撮像して画像を生成し、
前記異なる光による画像を用いて、前記投光手段の前記パターン光による前記被検物表面の凹凸に起因するテキスチャを、前記推定手順は推定する
ことを特徴とする3次元形状測定方法。 In the three-dimensional shape measuring method according to claim 6 or 7,
In the imaging procedure, an image is generated by imaging the surface of the object to be inspected with light different from the light projecting means ,
Said different using an image due to light, three-dimensional shape measuring method of the texture caused by the unevenness of the surface of the test object by the pattern light of the light projecting means, the estimation procedure is characterized in that estimation.
前記合成画像は、前記複数の異なる位置での前記画像それぞれを前記変更手順による所定の送り量で前記走査方向にずらしつつ前記スリット形状の長手方向で揃うように合成された画像であるThe synthesized image is an image synthesized such that the images at the plurality of different positions are aligned in the longitudinal direction of the slit shape while being shifted in the scanning direction by a predetermined feed amount according to the changing procedure.
ことを特徴とする3次元形状測定方法。A three-dimensional shape measuring method characterized by the above.
前記テキスチャは、前記被検物体の表面の凹凸に起因する前記撮像手順により生成した画像における不均一な輝度成分であることを特徴とする3次元形状測定方法。The three-dimensional shape measuring method, wherein the texture is a non-uniform luminance component in an image generated by the imaging procedure due to unevenness of a surface of the test object.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2008023912A JP5163163B2 (en) | 2008-02-04 | 2008-02-04 | Three-dimensional shape measuring apparatus and three-dimensional shape measuring method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2008023912A JP5163163B2 (en) | 2008-02-04 | 2008-02-04 | Three-dimensional shape measuring apparatus and three-dimensional shape measuring method |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2009186217A JP2009186217A (en) | 2009-08-20 |
JP5163163B2 true JP5163163B2 (en) | 2013-03-13 |
Family
ID=41069618
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2008023912A Active JP5163163B2 (en) | 2008-02-04 | 2008-02-04 | Three-dimensional shape measuring apparatus and three-dimensional shape measuring method |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP5163163B2 (en) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP6478713B2 (en) * | 2015-03-04 | 2019-03-06 | キヤノン株式会社 | Measuring device and measuring method |
WO2018211663A1 (en) * | 2017-05-18 | 2018-11-22 | 株式会社Pfu | Measurement device, measurement method, determination method, and program |
Family Cites Families (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH03289505A (en) * | 1990-04-06 | 1991-12-19 | Nippondenso Co Ltd | Three-dimensional shape measuring apparatus |
JP3575693B2 (en) * | 2001-03-25 | 2004-10-13 | オムロン株式会社 | Optical measuring device |
JP3884321B2 (en) * | 2001-06-26 | 2007-02-21 | オリンパス株式会社 | 3D information acquisition apparatus, projection pattern in 3D information acquisition, and 3D information acquisition method |
-
2008
- 2008-02-04 JP JP2008023912A patent/JP5163163B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
JP2009186217A (en) | 2009-08-20 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US7643159B2 (en) | Three-dimensional shape measuring system, and three-dimensional shape measuring method | |
JP6299111B2 (en) | Laser processing equipment | |
JP4830871B2 (en) | 3D shape measuring apparatus and 3D shape measuring method | |
JP5256745B2 (en) | 3D shape measuring device | |
EP3594617B1 (en) | Three-dimensional-shape measurement device, three-dimensional-shape measurement method, and program | |
JP2009031150A (en) | Three-dimensional shape measuring device, three-dimensional shape measurement method, three-dimensional shape measurement program, and record medium | |
JP2006268835A (en) | Method and device for predicting focus position | |
JP5488456B2 (en) | Shape measuring apparatus and method, and program | |
JP2006023178A (en) | 3-dimensional measuring method and device | |
JP5163163B2 (en) | Three-dimensional shape measuring apparatus and three-dimensional shape measuring method | |
CN112014858A (en) | Distance image generating device for correcting distance measurement abnormality | |
US20190108617A1 (en) | Image processing apparatus, system, image processing method, calibration method, and computer-readable recording medium | |
JP2006084286A (en) | Three-dimensional measuring method and its measuring device | |
JP2007322259A (en) | Edge detecting method, apparatus and program | |
WO2013035847A1 (en) | Shape measurement device, structure manufacturing system, shape measurement method, structure manufacturing method, shape measurement program, and computer-readable recording medium | |
JP5420942B2 (en) | Pattern drawing apparatus and pattern drawing method | |
JP4680640B2 (en) | Image input apparatus and image input method | |
KR101465996B1 (en) | Method for measurement of high speed 3d shape using selective long period | |
EP3070432B1 (en) | Measurement apparatus | |
JP7516728B2 (en) | Scanning measurement method and scanning measurement device | |
JP2009186216A (en) | Three-dimensional shape measuring device | |
JP2010025803A (en) | Inspection device having positioning function, program therefor, inspection method of inspection device having positioning function | |
JP6657880B2 (en) | Image processing apparatus, image processing method, and program | |
JP2005223563A (en) | Line sensor image reader | |
JP6523992B2 (en) | Image acquisition method, image acquisition apparatus and scanning microscope |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20110131 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20110323 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20120525 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20120605 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20120803 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20121120 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20121203 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20151228 Year of fee payment: 3 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 5163163 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20151228 Year of fee payment: 3 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |