JP5055191B2 - Three-dimensional shape measuring method and apparatus - Google Patents
Three-dimensional shape measuring method and apparatus Download PDFInfo
- Publication number
- JP5055191B2 JP5055191B2 JP2008113385A JP2008113385A JP5055191B2 JP 5055191 B2 JP5055191 B2 JP 5055191B2 JP 2008113385 A JP2008113385 A JP 2008113385A JP 2008113385 A JP2008113385 A JP 2008113385A JP 5055191 B2 JP5055191 B2 JP 5055191B2
- Authority
- JP
- Japan
- Prior art keywords
- measurement
- image
- fringe pattern
- dimensional shape
- projection
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Landscapes
- Length Measuring Devices By Optical Means (AREA)
Description
本発明は、被計測物体の3次元形状計測方法および装置に関する。 The present invention relates to a method and apparatus for measuring a three-dimensional shape of an object to be measured.
従来から、非接触かつ自動処理により被計測物体の3次元形状を計測する方法として、いわゆる位相シフト法が知られている。位相シフト法は、互いに位相をずらした正弦波縞パターン光による照明状態のもとで撮像した複数の縞パターン画像つまり複数の輝度分布データを用いて、画像全体について定まる1つの位相状態について画素点毎の位相を求め、その位相の分布データを3次元座標決定の基礎データとする。3次元形状計測結果は、位相分布データと撮像の幾何学条件等から得られ、各画素に被計測物体表面の3次元座標を割り当てた距離画像として得られる。 Conventionally, a so-called phase shift method is known as a method for measuring the three-dimensional shape of an object to be measured by non-contact and automatic processing. The phase shift method uses a plurality of fringe pattern images captured under illumination conditions with sinusoidal fringe pattern lights whose phases are shifted from each other, that is, a plurality of luminance distribution data, and pixel points for one phase state determined for the entire image. Each phase is obtained, and the distribution data of the phase is used as basic data for determining the three-dimensional coordinates. The three-dimensional shape measurement result is obtained from the phase distribution data and the geometric conditions of imaging, and is obtained as a distance image in which the three-dimensional coordinates of the surface of the measurement object are assigned to each pixel.
位相シフト法を用いて3次元形状計測を行う場合に、被計測物体表面に反射率の異なる部分、例えば、文字や柄があると、これらの文字や柄と背景部分の境界において計測誤差が発生する。その原因は、境界部分における注目画素の輝度がその周辺画素の輝度に影響されてぼけて真の輝度から変化することによる。このぼけは、例えば、撮像の際の焦点ぼけやレンズの変調伝達関数特性に基づくぼけによる。縞パターン画像がぼけると基礎データとする位相の分布データが誤差を含み、計測誤差が発生する。 When performing three-dimensional shape measurement using the phase shift method, if there are parts with different reflectivities on the surface of the object being measured, such as characters or patterns, measurement errors occur at the boundaries between these characters or patterns and the background part. To do. This is because the luminance of the pixel of interest in the boundary portion is affected by the luminance of the surrounding pixels and is blurred and changes from the true luminance. This blur is due to, for example, a blur due to a focal blur at the time of imaging or a modulation transfer function characteristic of a lens. When the fringe pattern image is blurred, the phase distribution data as the basic data includes an error, and a measurement error occurs.
上述の誤差の発生をシミュレーションにより図23乃至図28を参照して説明する。図23は反射率の異なる領域を含む計測領域を一様照明のもとで撮像した画像Gを示し、図24は図23の画像Gにおけるx0方向に沿った輝度値変化を示す。これらの図に示すように一様照明のもとで明部(領域w2)と暗部(領域w1,w3)とが2値の輝度値L1,L2となるコントラストのある対象領域に対して、強制的にぼけを発生させて比較する。図25(a)〜(d)は、明度がx方向に正弦波状に変化する照明のもとで、それぞれ位相変化分δφを0(初期位相状態)から、π/2,π,3π/2とした場合の、x0方向に沿った輝度変化の計算値を示す。これはぼけのないデータである。図26(a)〜(d)は、図25(a)〜(d)の輝度変化に標準偏差σのガウス移動平均処理を行って、計算により強制的に輝度変化をぼかして得たデータである。図27は、図25(a)〜(d)から算出した位相分布と、図26(a)〜(d)から算出した位相分布とを重ねて示している。図28は、図27において位相差ΔPが生じている部分Dを拡大して示している。図27、図28に示すように、明暗の境界xbの位置で、破線で示したぼかし有りの位相値は、実線で示したぼかしのない正しい位相値から変化して、位相差ΔPの誤差を有している。 The generation of the error will be described with reference to FIGS. 23 to 28 by simulation. FIG. 23 shows an image G obtained by imaging a measurement region including regions with different reflectivities under uniform illumination, and FIG. 24 shows a change in luminance value along the x0 direction in the image G of FIG. As shown in these figures, for a target area having contrast where the bright part (area w2) and the dark part (areas w1 and w3) have binary luminance values L1 and L2 under uniform illumination. Compare with blurring. 25 (a) to 25 (d) show that the phase change δφ is changed from 0 (initial phase state) to π / 2, π, and 3π / 2 under the illumination whose brightness changes in a sine wave shape in the x direction. The calculated value of the luminance change along the x0 direction is shown. This is unblurred data. 26A to 26D are data obtained by performing a Gaussian moving average process with a standard deviation σ on the luminance changes of FIGS. 25A to 25D and forcibly blurring the luminance changes by calculation. is there. FIG. 27 shows the phase distribution calculated from FIGS. 25A to 25D and the phase distribution calculated from FIGS. 26A to 26D in an overlapping manner. FIG. 28 shows an enlarged portion D where the phase difference ΔP occurs in FIG. As shown in FIGS. 27 and 28, the phase value with blurring indicated by the broken line at the position of the light / dark boundary xb is changed from the correct phase value without blurring indicated by the solid line, and the error of the phase difference ΔP is changed. Have.
上述の位相値の誤差による3次元座標の計測誤差の発生について説明する。図29は位相シフト法による3次元計測における3次元計測点を特定する仕組みをピンホールモデルで示す。縞パターン投影装置はパターン生成部22を備え、撮像装置(カメラ)は撮像素子31を備えている。点Aは縞パターン投影装置の光学中心、点Cはカメラの光学中心、点Oは縞パターン投影装置の光軸とカメラの光軸との交点である。カメラによって撮像された画像から求められる位相値は、投影装置内部のパターン生成部22上の座標に1対1対応する。そこで、撮像素子31における或る画素について位相を求めると、パターン生成部22上の点Pの位置と、これに対応する撮像素子31上の点Qの位置が特定される。 The generation of the measurement error of the three-dimensional coordinate due to the above-described phase value error will be described. FIG. 29 shows a pinhole model for identifying a three-dimensional measurement point in three-dimensional measurement by the phase shift method. The fringe pattern projection apparatus includes a pattern generation unit 22, and the imaging apparatus (camera) includes an imaging element 31. Point A is the optical center of the fringe pattern projector, point C is the optical center of the camera, and point O is the intersection of the optical axis of the fringe pattern projector and the optical axis of the camera. The phase value obtained from the image captured by the camera has a one-to-one correspondence with the coordinates on the pattern generation unit 22 inside the projection apparatus. Therefore, when the phase is obtained for a certain pixel in the image sensor 31, the position of the point P on the pattern generation unit 22 and the position of the point Q on the image sensor 31 corresponding to this are specified.
また、計測したい点Mの位置は、直線A−Pと直線C−Qの各延長線の交点Mとして求められる。上述した位相値の誤差が生じた場合に、パターン生成部22上の点Pの位置が、位相値の誤差に従って少しずれた点P1として認識される。このとき、計測された点の位置は、直線A−P1と直線C−Qの延長線の交点M1となる。すなわち、位相値の誤差により、線分M−M1の長さ分の誤差が3次元計測値の誤差となる。 Further, the position of the point M to be measured is obtained as the intersection M of the extension lines of the straight line AP and the straight line CQ. When the above-described phase value error occurs, the position of the point P on the pattern generation unit 22 is recognized as a point P1 slightly shifted according to the phase value error. At this time, the position of the measured point is the intersection M1 of the extension line of the straight line A-P1 and the straight line CQ. That is, due to the phase value error, the error corresponding to the length of the line segment M-M1 becomes the error of the three-dimensional measurement value.
上述のような特性を有する位相シフト法は、被計測物体上に反射率の異なる部分があると、その部分の明暗状態が表面形状を反映しないものとなって計測誤差を発生するので、被計測物体は白く塗装して計測される。従って、位相シフト法による3次元形状計測は、例えば、3次元CADに基づいて製作された製品が正しい形状にできているかを検証するために、白塗装された試作段階の物体について行われるが、実際の生産工程におけるインライン計測には殆ど使われていない。 In the phase shift method having the above-described characteristics, if there is a part with different reflectance on the object to be measured, the brightness state of that part does not reflect the surface shape and a measurement error occurs. The object is painted white and measured. Therefore, the three-dimensional shape measurement by the phase shift method is performed on a white-painted prototype stage object, for example, in order to verify whether a product manufactured based on the three-dimensional CAD has a correct shape. It is rarely used for in-line measurement in the actual production process.
また、位相シフト法において、カメラの視野方向と投影装置による投影方向とが異なることに加え被計測物体が3次元形状であることにより発生する自己隠蔽(いわゆるオクルージョン)や、影、乱反射、などの影響を解消するため、異なる複数の方向から縞パターン光を投影したり、被計測物体を回転させたりして、計測精度を上げることが提案されている(例えば、特許文献1参照)。
しかしながら、上述したように、従来の位相シフト法は実際の生産工程におけるインライン計測には殆ど使われていない。また、上述した特許文献1に示されるような位相シフト法による計測方法は、被計測物体表面の反射率の違いにより発生する計測誤差を解決することができない。 However, as described above, the conventional phase shift method is hardly used for in-line measurement in an actual production process. In addition, the measurement method based on the phase shift method as described in Patent Document 1 described above cannot solve the measurement error caused by the difference in the reflectance of the surface of the object to be measured.
本発明は、上記課題を解消するものであって、簡単な構成により、表面に文字や柄などによる反射率の異なる領域が混在する被計測物体や自己隠蔽による影が発生する被計測物体についても計測精度を向上できる位相シフト法による3次元形状計測方法および装置を提供することを目的とする。 The present invention solves the above-mentioned problems, and with a simple configuration, a measurement object in which areas with different reflectances such as characters and patterns are mixed on the surface and a measurement object in which a shadow due to self-concealment occurs are also present. It is an object of the present invention to provide a three-dimensional shape measurement method and apparatus by a phase shift method that can improve measurement accuracy.
上記課題を達成するために、請求項1の発明は、明度が正弦波状に変化する縞パターンを異なる位相で3回以上被計測物体に投影して撮像し、得られた複数の画像を用いて各画素における被計測物体の3次元座標を位相シフト法により求める3次元形状計測方法において、被計測物体の計測領域上方に撮像部を設置し、前記撮像部の光軸を含む平面内に投影用光軸を2つ設定し、前記投影用光軸の各方向からそれぞれ独立に計測領域に縞パターンを投影すると共に前記撮像部によって撮像して2種類の3次元座標を求める計測ステップと、前記計測ステップにより前記撮像部の撮像素子上の1点に対応して得られる2種類の3次元座標の平均値を算出する演算ステップと、を含み、前記2つの投影用光軸の一方から縞パターンを投影して撮像された画像に影が生じた場合に、その影の部分を任意の距離だけ拡張した領域について、他方の投影用光軸から縞パターンを投影して撮像された画像に基づく3次元座標を用いるものである。
In order to achieve the above-mentioned object, the invention according to claim 1 is directed to projecting and imaging a fringe pattern whose brightness changes in a sinusoidal shape on an object to be measured three or more times with different phases, and using a plurality of obtained images. In a three-dimensional shape measurement method for obtaining a three-dimensional coordinate of an object to be measured at each pixel by a phase shift method, an imaging unit is installed above the measurement region of the object to be measured, and is projected onto a plane including the optical axis of the imaging unit A measurement step of setting two optical axes, projecting a fringe pattern onto a measurement region independently from each direction of the optical axis for projection, and capturing two types of three-dimensional coordinates by imaging with the imaging unit; step by looking contains a calculating step, the calculating the average value of the two three-dimensional coordinates obtained corresponding to a point on the image sensor of the imaging unit, the fringe pattern from one of the two projection optical axis To project When the shadow image is generated, the region which extends the portion of the shadow arbitrary distance, those using three-dimensional coordinates based on the captured image by projecting the stripe pattern from the other projection optical axis It is.
請求項2の発明は、請求項1に記載の3次元形状計測方法において、前記2つの投影用光軸が、前記撮像部の光軸に対して線対称に設定されているものである。 According to a second aspect of the present invention, in the three-dimensional shape measurement method according to the first aspect, the two projection optical axes are set symmetrically with respect to the optical axis of the imaging unit.
請求項3の発明は、請求項1または請求項2に記載の3次元形状計測方法において、前記撮像部の撮像レンズ、または前記2つの投影用光軸から縞パターンを投影するための投影レンズのいずれかにテレセントリックレンズを用いるものである。
A third aspect of the present invention, the three-dimensional shape measuring method according to claim 1 or claim 2, the projection lens for projecting a fringe pattern from the imaging unit of the imaging lens or the two projection optical axis, A telecentric lens is used for either.
請求項4の発明は、請求項1乃至請求項3のいずれか一項に記載の3次元形状計測方法において、前記撮像部の撮像レンズ、および前記2つの投影用光軸から縞パターンを投影するための投影レンズのそれぞれにテレセントリックレンズを用いるものである。
A fourth aspect of the present invention, in the three-dimensional shape measuring method according to any one of claims 1 to 3, to project a fringe pattern from the imaging unit of the imaging lens, and the two projection optical axis For this purpose, a telecentric lens is used for each projection lens.
請求項5の発明は、請求項1乃至請求項4のいずれか一項に記載の3次元形状計測方法を用いる3次元形状計測装置である。
A fifth aspect of the present invention is a three-dimensional shape measurement apparatus using the three-dimensional shape measurement method according to any one of the first to fourth aspects.
請求項1の発明によれば、2種類の3次元座標の平均値を計測結果とすることができるので、位相値の誤差やランダムノイズに起因する3次元座標の計測誤差を低減することができ、精度の高い計測ができる。また、自己隠蔽による影の部分の周辺において発生する位相値の誤差に起因する3次元座標の計測誤差を解消でき、計測精度を向上できる。
According to the first aspect of the present invention, an average value of two types of three-dimensional coordinates can be used as a measurement result, so that a three-dimensional coordinate measurement error caused by a phase value error or random noise can be reduced. Highly accurate measurement is possible. Further, the measurement error of the three-dimensional coordinates due to the error of the phase value generated around the shadow portion due to self-hiding can be eliminated, and the measurement accuracy can be improved.
請求項2の発明によれば、位相値の誤差に起因する3次元座標の計測誤差を互いに相殺させることができるので、表面に文字や柄などによる反射率の異なる領域が混在して位相値の誤差が発生するような被計測物体についても計測精度を向上できる。 According to the second aspect of the present invention, the measurement error of the three-dimensional coordinates caused by the phase value error can be canceled out, so that regions having different reflectivities due to characters, patterns, etc. are mixed on the surface. Measurement accuracy can be improved even for an object to be measured in which an error occurs.
請求項3の発明によれば、投影装置からの出射光や撮像部への入射光を、被計測物体側の空間において平行光線として光学特性を改善できるので、計測精度を向上できる。
According to the third aspect of the invention, since the optical characteristics can be improved by using the light emitted from the projection device and the light incident on the imaging unit as parallel rays in the space on the measured object side, the measurement accuracy can be improved.
請求項4の発明によれば、請求項3と同等の効果が得られる。
According to the invention of claim 4 , the same effect as that of claim 3 can be obtained.
請求項5の発明によれば、自己隠蔽による影が発生したり、表面に文字や柄などによる反射率の異なる領域が混在したりする被計測物体についても、計測精度を向上できる位相シフト法による3次元形状計測装置を提供することができる。 According to the invention of claim 5, the phase shift method that can improve the measurement accuracy even for a measurement object in which a shadow due to self-concealment occurs or an area with different reflectivity due to characters or patterns is mixed on the surface is used. A three-dimensional shape measuring apparatus can be provided.
(第1の実施形態)
第1の実施形態に係る3次元形状計測装置について図1乃至図4を参照して説明する。なお、図1に示す構成は他の実施形態に共通であり、他の実施形態においても参照する。また、本実施形態と次の第2の実施形態では、自己隠蔽のない立体表面の形状計測について説明しており、自己隠蔽による影を有する被計測物体の形状計測については、第3、第4の実施形態において説明する。
(First embodiment)
A three-dimensional shape measuring apparatus according to the first embodiment will be described with reference to FIGS. The configuration shown in FIG. 1 is common to the other embodiments, and is also referred to in the other embodiments. Further, in the present embodiment and the next second embodiment, the shape measurement of a three-dimensional surface without self-hiding is described, and the shape measurement of an object to be measured having a shadow due to self-hiding is described in the third and fourth. The embodiment will be described.
図1、図2は3次元形状計測装置の構成を示す。3次元形状計測装置1は、文字や柄などによる反射率の異なる領域が表面に混在する被計測物体についても、位相シフト法を用いて非接触で精度良くその3次元形状を計測可能とする装置であって、画像中の画素毎に被計測物体の3次元座標を求めることができる。この3次元形状計測装置1は、基本的に、通常の位相シフト法による3次元形状計測を複数回行い、その計測結果から最良の計測結果を決定することにより、最終的に高精度の3次元形状計測を可能にする。 1 and 2 show the configuration of a three-dimensional shape measuring apparatus. The three-dimensional shape measuring apparatus 1 is an apparatus that can accurately measure a three-dimensional shape in a non-contact manner using a phase shift method even for an object to be measured in which regions having different reflectances due to characters, patterns, etc. are mixed on the surface. Thus, the three-dimensional coordinates of the measured object can be obtained for each pixel in the image. The three-dimensional shape measuring apparatus 1 basically performs a three-dimensional shape measurement by a normal phase shift method a plurality of times, and determines the best measurement result from the measurement result, so that a high-precision three-dimensional shape is finally obtained. Enables shape measurement.
このため、3次元形状計測装置1は、互いに異なる方向(本例の場合対向する方向)から被計測物体の計測領域10に縞パターンを投影する2系統(第1および第2)の縞パターン投影部2a,2b(総称して縞パターン投影部2と表記)と、計測領域10の上方に設置されて計測領域10を撮像する撮像部3と、縞パターン投影部2および撮像部3とを制御すると共に縞パターン投影部2および撮像部3から出力されるデータを基に計測領域10の3次元形状を求める計算を行う3次元計測処理部4とを備えている。計測領域10は、任意の3次元凹凸表面を有する被計測物体の表面領域である。 For this reason, the three-dimensional shape measuring apparatus 1 projects two patterns (first and second) of fringe patterns that project the fringe patterns onto the measurement area 10 of the measurement object from different directions (in the opposite direction in this example). Control unit 2a, 2b (generically described as stripe pattern projection unit 2), imaging unit 3 installed above measurement region 10 and imaging measurement region 10, stripe pattern projection unit 2 and imaging unit 3 And a three-dimensional measurement processing unit 4 that performs calculation for obtaining a three-dimensional shape of the measurement region 10 based on data output from the fringe pattern projection unit 2 and the imaging unit 3. The measurement region 10 is a surface region of an object to be measured having an arbitrary three-dimensional uneven surface.
縞パターン投影部2a,2bは、それぞれ照明部21a,21b(総称して21)、縞パターン生成部22a,22b(総称して22)、および投影光学部23a,23b(総称して23)を備えている。照明部21は、光源と光源からの光を平行光に変換するコンデンサーレンズとを用いて構成される。縞パターン生成部22は、光の透過率が一方向に沿って正弦波状に変化する、平面上において平行縞となる縞パターンを生成する部分であり、透過型液晶板と偏光板とを用いて構成される。投影光学部23は、縞パターン生成部22で作られた縞パターンを計測対象物に投影するためのレンズで構成される。 The fringe pattern projection units 2a and 2b include illumination units 21a and 21b (collectively 21), stripe pattern generation units 22a and 22b (collectively 22), and projection optical units 23a and 23b (collectively 23). I have. The illumination unit 21 is configured using a light source and a condenser lens that converts light from the light source into parallel light. The fringe pattern generation unit 22 is a part that generates a fringe pattern that becomes a parallel stripe on a plane, in which the light transmittance changes in a sinusoidal shape along one direction, and uses a transmissive liquid crystal plate and a polarizing plate. Composed. The projection optical unit 23 includes a lens for projecting the fringe pattern created by the fringe pattern generation unit 22 onto the measurement target.
縞パターン投影部2a,2bの各投影用光軸20a,20b(総称して20)は、撮像部3の光軸30を含む平面に含まれるように設定されている。なお、縞パターン投影部2a,2bは、実際に複数の機器を準備する必要はなく、1系統の縞パターン投影部2の配置を変えることにより2系統の動作を実現してもよい。これは、複数系統からの照明のもとで同時に撮像することはないからである。しかしながら、撮像の段取り変えに要する時間などを考えると、複数系統を固定して移動せずに用いる方が好ましい。 The projection optical axes 20a and 20b (collectively 20) of the fringe pattern projection units 2a and 2b are set to be included in a plane including the optical axis 30 of the imaging unit 3. The fringe pattern projection units 2a and 2b do not need to actually prepare a plurality of devices, and the two-line operation may be realized by changing the arrangement of the one-line fringe pattern projection unit 2. This is because images are not captured simultaneously under illumination from a plurality of systems. However, in consideration of the time required for changing the imaging setup, it is preferable to use a plurality of systems without moving them.
上述の縞パターン生成部22を構成する透過型液晶板と偏光板とは、反射型液晶板と偏光板との組合せ、縞パターンを焼き付けたフィルムと所定の位相をずらすためのそのフィルムを移動させるアクチュエータとの組合せ、またはデジタルミラーデバイス(DMD)などによって、同等の機能を実現するようにしてもよい。 The transmission type liquid crystal plate and the polarizing plate constituting the above-described stripe pattern generation unit 22 are a combination of a reflection type liquid crystal plate and a polarizing plate, and a film on which the stripe pattern is baked and a film for shifting a predetermined phase are moved. An equivalent function may be realized by a combination with an actuator or a digital mirror device (DMD).
撮像部3は、計測領域10からの光を光電変換して画像データを生成するための撮像素子31と、計測領域10の像を撮像素子31上に形成するための光学レンズから成る撮像光学部32とを備えている。 The imaging unit 3 is an imaging optical unit that includes an imaging element 31 for photoelectrically converting light from the measurement region 10 to generate image data, and an optical lens for forming an image of the measurement region 10 on the imaging element 31. 32.
3次元計測処理部4は、縞パターンデータ作成部41と、中央制御部42と、メモリ43と、演算部44と、計測結果や撮像画像等を表示する表示部45と、本装置の操作に必要な入出力部(不図示)と、を備えている。また、演算部44は、最終的な計測結果を決定するための計測結果決定部4aを備えている。このような3次元計測処理部4は、CPU、外部記憶装置、表示装置、入力装置などを備えた一般的な構成を備えたコンピュータ、およびコンピュータ上のプロセスや機能の集合を用いて構成することができる。 The three-dimensional measurement processing unit 4 includes a fringe pattern data creation unit 41, a central control unit 42, a memory 43, a calculation unit 44, a display unit 45 that displays measurement results and captured images, and the like. And necessary input / output units (not shown). Moreover, the calculating part 44 is provided with the measurement result determination part 4a for determining a final measurement result. Such a three-dimensional measurement processing unit 4 is configured using a computer having a general configuration including a CPU, an external storage device, a display device, an input device, and the like, and a set of processes and functions on the computer. Can do.
表示部45は、通常のコンピュータ周辺機器として用いられる液晶ディスプレイやCRT等で構成することができる。入出力部は、簡単なスイッチ群で構成したり、通常のコンピュータ周辺機器におけるマウスやキーボード等を用いて構成される。縞パターンデータ作成部41は、縞パターン投影部2a,2bの縞パターン生成部22において生成される縞パターンのもとになるデータを生成する。 The display unit 45 can be configured by a liquid crystal display, a CRT, or the like used as a normal computer peripheral device. The input / output unit is configured by a simple switch group or by using a mouse, a keyboard, or the like in a normal computer peripheral device. The fringe pattern data creation unit 41 generates data that is the basis of the fringe pattern generated in the fringe pattern generation unit 22 of the fringe pattern projection units 2a and 2b.
中央制御部42は、縞パターン投影部2a,2bに送る縞パターンのもとデータの送信制御、縞パターン投影部2a,2bの投影制御、撮像部3の撮像制御などを行って、計測領域10に投影する縞パターンの位相を一定の位相間隔でシフトさせると共に、各位相のもとで照明した計測領域10の撮像部3による撮像を制御する。中央制御部42は、このほか、表示部45や入出力部その他の各部の制御を行う。 The central control unit 42 performs transmission control of data based on the fringe pattern to be sent to the fringe pattern projection units 2a and 2b, projection control of the fringe pattern projection units 2a and 2b, imaging control of the imaging unit 3, and the like. In addition to shifting the phase of the fringe pattern projected onto the image at a constant phase interval, the imaging by the imaging unit 3 of the measurement region 10 illuminated under each phase is controlled. In addition, the central control unit 42 controls the display unit 45, the input / output unit, and other units.
メモリ43は、3次元形状計測に必要なデータを記録するところであり、撮像部3と縞パターン投影部2a,2bの空間配置に関するデータ、撮像部3の分解能、縞パターンのピッチ、位相シフト量、撮像部3により撮像された画像データ等のデータが記録される。 The memory 43 is a place where data necessary for three-dimensional shape measurement is recorded. Data regarding the spatial arrangement of the imaging unit 3 and the stripe pattern projection units 2a and 2b, the resolution of the imaging unit 3, the pitch of the stripe pattern, the amount of phase shift, Data such as image data captured by the imaging unit 3 is recorded.
演算部44は、メモリ43に記録されたデータを用いて、位相シフト法における撮像画像の各画素での位相値を求め、求まった位相値に基づいて各画素点毎に計測領域10の3次元形状座標を算出する。 The calculation unit 44 obtains the phase value at each pixel of the captured image in the phase shift method using the data recorded in the memory 43, and based on the obtained phase value, the three-dimensional measurement region 10 is obtained for each pixel point. Calculate the shape coordinates.
(縞パターン投影部2a,2bと撮像部3の空間配置)
本実施形態では、被計測物体の計測領域10の上方に撮像部3が設置され、撮像部3の光軸30と、2系統の縞パターン投影部2a,2bの各投影用光軸20a,20bとが同一平面内に設定され、2つの縞パターン投影部2a,2bが互いに撮像部3を挟むように配置されている。3つの光軸20a,20b,30は互いに1つの点Oで交わるように配置されるが、必ずしもこのようにする必要はない。
(Spatial arrangement of the fringe pattern projection units 2a and 2b and the imaging unit 3)
In the present embodiment, the imaging unit 3 is installed above the measurement area 10 of the measurement object, and the optical axis 30 of the imaging unit 3 and the projection optical axes 20a and 20b of the two stripe pattern projection units 2a and 2b. Are set in the same plane, and the two fringe pattern projection units 2a and 2b are arranged so as to sandwich the imaging unit 3 therebetween. The three optical axes 20a, 20b, and 30 are arranged so as to intersect with each other at one point O, but it is not always necessary to do so.
ここで、便宜上右手系直交座標系を構成する空間の座標軸X,Y,Z、および画像面における座標軸x,yを定義する。Z軸は撮像部3の光軸30とし、X軸は3つの光軸が含まれる面にあるとする。座標軸x,yは、座標軸X,Yに一致させて、または対応させて定義することができる。また、便宜上、x軸方向を水平方向と呼ぶことがある。 Here, for the sake of convenience, coordinate axes X, Y, Z in the space constituting the right-handed orthogonal coordinate system and coordinate axes x, y in the image plane are defined. It is assumed that the Z axis is the optical axis 30 of the imaging unit 3 and the X axis is on a plane including three optical axes. The coordinate axes x and y can be defined to match or correspond to the coordinate axes X and Y. For convenience, the x-axis direction may be referred to as the horizontal direction.
(縞パターンSPの配置)
本実施形態の位相シフト法で用いられる縞パターンSPは、明度が一定方向(以下、パターン変化方向5)に沿って正弦波状に変化するパターンである。本実施形態においては、パターン変化方向5を、X,x軸方向に設定している。
(Arrangement of stripe pattern SP)
The fringe pattern SP used in the phase shift method of the present embodiment is a pattern in which the brightness changes in a sine wave shape along a certain direction (hereinafter, pattern change direction 5). In the present embodiment, the pattern change direction 5 is set in the X and x axis directions.
(動作説明)
本実施形態の3次元形状計測装置1が、被計測物体の表面に文字や柄などによる反射率の異なる領域が混在して位相値の誤差が発生するような被計測物体についても計測精度を向上できることを説明する。要点は、互いに撮像部3を挟むように配置した2つの縞パターン投影部2a,2bを用いて形状計測を行い、2種類の計測結果を平均化することにより、個々の縞パターン投影部2a,2bによる計測における位相値の誤差に起因する3次元座標の計測誤差を互いに相殺させることができることによる。
(Description of operation)
The three-dimensional shape measurement apparatus 1 according to the present embodiment improves measurement accuracy even for an object to be measured in which a phase value error occurs due to a mixture of regions having different reflectivities due to characters and patterns on the surface of the object to be measured. Explain what you can do. The main point is that the shape measurement is performed using the two stripe pattern projection units 2a and 2b arranged so as to sandwich the image pickup unit 3, and the two kinds of measurement results are averaged to obtain individual stripe pattern projection units 2a and 2b. This is because the measurement errors of the three-dimensional coordinates caused by the error of the phase value in the measurement by 2b can be canceled each other.
図3は、縞パターン投影部2a,2bからの照明光および撮像部3への入射光の各光路と計測誤差との関連を示す。既に、位相シフト法における従来の問題として、図23乃至図28、および図29を参照して、表面に反射率の異なる領域が混在する被計測物体における位相値の誤差発生と、その位相値の誤差による計測精度の発生を説明した。ここでは、本実施形態の3次元形状計測装置1が、2つの縞パターン投影部2a,2bを備えることにより、2種類の3次元座標の平均値を計測結果として3次元座標の計測誤差を低減できる原理を示す。 FIG. 3 shows the relationship between the measurement light and each optical path of the illumination light from the fringe pattern projection units 2a and 2b and the incident light to the imaging unit 3. As a conventional problem in the phase shift method, referring to FIG. 23 to FIG. 28 and FIG. 29, the occurrence of an error in the phase value in the object to be measured in which regions having different reflectances are mixed, and the phase value The generation of measurement accuracy due to errors was explained. Here, the three-dimensional shape measuring apparatus 1 of the present embodiment includes two fringe pattern projection units 2a and 2b, thereby reducing the measurement error of the three-dimensional coordinates using the average value of the two types of three-dimensional coordinates as a measurement result. The principle that can be done is shown.
図3は、図29で説明した位相シフト法による3次元計測のピンホールモデルにおいて、光学中心を点Bとする第2の投影装置を追加したものである。本図において、2つの縞パターン投影部2a,2bはそれぞれパターン生成部22a,22bを備え、撮像部3は撮像素子31を備えている。点A,Bは縞パターン投影部2a,2bの光学中心、点Cは撮像部3の光学中心、点Oは縞パターン投影部2a,2bの光軸20a,20bと撮像部3の光軸30との交点である。点A,Bが点Cを挟んで、向かい合うように配置されている。撮像部3によって撮像された画像から求められる位相値は、パターン生成部22a,22b上の座標に1対1対応する。そこで、撮像素子31における或る画素について位相を求めると、パターン生成部22a上の点Pの位置と、これに対応する撮像素子31上の点Qの位置が特定される。 FIG. 3 is obtained by adding a second projection device having an optical center as a point B in the three-dimensional measurement pinhole model by the phase shift method described in FIG. In this figure, two fringe pattern projection units 2a and 2b are provided with pattern generation units 22a and 22b, respectively, and the imaging unit 3 is provided with an imaging device 31. Points A and B are the optical centers of the stripe pattern projection units 2a and 2b, point C is the optical center of the imaging unit 3, and point O is the optical axes 20a and 20b of the stripe pattern projection units 2a and 2b and the optical axis 30 of the imaging unit 3. Is the intersection of The points A and B are arranged so as to face each other across the point C. The phase value obtained from the image captured by the imaging unit 3 has a one-to-one correspondence with the coordinates on the pattern generation units 22a and 22b. Therefore, when the phase is obtained for a certain pixel in the image sensor 31, the position of the point P on the pattern generation unit 22a and the position of the point Q on the image sensor 31 corresponding thereto are specified.
また、計測しようとする点Mの位置は、直線A−Pと直線C−Qの各延長線の交点Mとして求められる。上述した位相値の誤差が生じた場合に、パターン生成部22a上の点Pの位置が、位相値の誤差に従って少しずれた点P1として認識される。このとき、計測された点の位置は、直線A−P1と直線C−Qの延長線の交点M1となる。位相値の誤差により、線分M−M1の長さ分の誤差が3次元計測値の誤差となる。なお、光学中心とは、各光学装置において入射光または出射光が一点に収束する仮想の点である。 Further, the position of the point M to be measured is obtained as the intersection M of the extended lines of the straight line AP and the straight line CQ. When the above-described phase value error occurs, the position of the point P on the pattern generation unit 22a is recognized as a point P1 slightly shifted according to the phase value error. At this time, the position of the measured point is the intersection M1 of the extension line of the straight line A-P1 and the straight line CQ. Due to the error in the phase value, the error corresponding to the length of the line segment M-M1 becomes the error in the three-dimensional measurement value. The optical center is a virtual point where incident light or outgoing light converges to one point in each optical device.
縞パターン投影部2bにおいて、測定しようとする点Mに対応するパターン生成部22b上の点をRとすると、点Rは直線B−Mとパターン生成部22bの平面との交点となる。ここで、縞パターン投影部2bと撮像部3の組み合わせで求めた位相においても、縞パターン投影部2aと撮像部3の組み合わせで求めた位相と同様の誤差が生じる場合を考える。この場合、位相値の誤差によって点Rの位置が点R1であると誤認識される。その結果、縞パターン投影部2bによって求められる計測点の位置は、直線B−R1と直線C−Qの各延長線の交点M2となる。この場合、直線C−Qにおいて考えると、点M1と点M2とは点Mを間に挟む位置関係となる。 In the fringe pattern projection unit 2b, if the point on the pattern generation unit 22b corresponding to the point M to be measured is R, the point R is an intersection of the straight line B-M and the plane of the pattern generation unit 22b. Here, the case where the same error as the phase obtained by the combination of the fringe pattern projection unit 2a and the imaging unit 3 occurs also in the phase obtained by the combination of the stripe pattern projection unit 2b and the imaging unit 3 will be considered. In this case, the position of the point R is erroneously recognized as the point R1 due to the phase value error. As a result, the position of the measurement point obtained by the fringe pattern projection unit 2b is an intersection M2 of the extended lines of the straight line B-R1 and the straight line CQ. In this case, considering the straight line CQ, the point M1 and the point M2 have a positional relationship with the point M interposed therebetween.
上述のことは、縞パターン投影部2a,2bを用いた場合に発生する計測誤差が、互いに符号が異なる誤差となることを意味する。従って、計測された点M1の座標値と点M2の座標値との平均値を求めることにより、誤差が相殺され、本来の位置である点Mの座標値に近い計測結果を得ることができる。これが3次元形状計測装置1における3次元座標の計測誤差を低減する原理である。 The above means that the measurement error that occurs when the fringe pattern projection units 2a and 2b are used becomes an error having a different sign. Therefore, by obtaining an average value of the coordinate value of the measured point M1 and the coordinate value of the point M2, the error is canceled out, and a measurement result close to the coordinate value of the point M that is the original position can be obtained. This is the principle of reducing the measurement error of the three-dimensional coordinates in the three-dimensional shape measuring apparatus 1.
ここで、誤差ベクトルの概念を導入する。縞パターン投影部2aのパターン生成部22a上に生じる誤差は、パターン生成部22a上における誤差のない位置から、誤差によって移動した位置に向かうパターン生成部22a上のベクトルの方向と大きさによって表すことができる。このベクトルを誤差ベクトルVaとする(図中では、大きさを拡大して表示している)。同様にパターン生成部22b上における誤差ベクトルVbを定義する。 Here, the concept of an error vector is introduced. The error generated on the pattern generation unit 22a of the fringe pattern projection unit 2a is represented by the direction and magnitude of the vector on the pattern generation unit 22a from the position without error on the pattern generation unit 22a to the position moved by the error. Can do. This vector is defined as an error vector Va (in the figure, the size is enlarged and displayed). Similarly, an error vector Vb on the pattern generation unit 22b is defined.
上述の誤差ベクトルVa,Vbを用いると、直線C−Q上で点M1と点M2とが点Mを間に挟む位置関係となるための条件は、誤差ベクトルVa,Vbの、光軸30に直交する方向の成分を成分va,vbとするとき、成分va,vbの向きが互いに同じ向きになることである、と表現される。これは、例えば図3の場合、点P1が点Pの右側に移動し、点R1が点Rの右側に移動するように、同じ側に誤差が発生することを意味する。 When the above error vectors Va and Vb are used, the condition for the positional relationship between the point M1 and the point M2 between the points M on the straight line CQ is that the error vectors Va and Vb have the optical axis 30. When the components in the orthogonal direction are components va and vb, it is expressed that the directions of the components va and vb are the same. For example, in the case of FIG. 3, this means that an error occurs on the same side so that the point P1 moves to the right of the point P and the point R1 moves to the right of the point R.
計測時に発生する位相値の誤差が、上述のような条件を満たすための装置の条件は、縞パターン投影部2a,2bが、撮像部3を挟んで向かい合うように配置され、2つの縞パターン投影部2a,2bから同じ縞パターンSPを投影する場合に満たされる。この条件を[投影部配置条件1]とする。 The condition of the apparatus for the phase value error generated during the measurement to satisfy the above-described condition is that the fringe pattern projection units 2a and 2b are arranged so as to face each other with the imaging unit 3 interposed therebetween, and two fringe pattern projections are performed. This is satisfied when the same stripe pattern SP is projected from the parts 2a and 2b. This condition is defined as [Projection unit arrangement condition 1].
ここで、縞パターン投影部2a,2bから投影する縞パターンSPが同じとは、少なくとも縞パターンSPのパターン変化方向5が同じ方向、ということである。例えば、図1、図2の場合、2つのパターン変化方向5は共に同じくX方向とされている。 Here, the same stripe pattern SP projected from the stripe pattern projection units 2a and 2b means that at least the pattern change direction 5 of the stripe pattern SP is the same direction. For example, in the case of FIG. 1 and FIG. 2, the two pattern change directions 5 are both the X direction.
図4は2つの投影用光軸20a,20bのなす角度と相対誤差の関係を示す。上述の[投影部配置条件1]を満たした上で、さらに計測値の平均値を求める平均化処理を行った後に残る誤差(相対誤差Re)を小さくするための条件[投影部配置条件2]を説明する。図4に示すように、縞パターン投影部2aの光軸20aと撮像部3の光軸30とのなす角度θAを20゜に固定し、縞パターン投影部2bの光軸20bと撮像部3の光軸30とのなす角度θBを変化させたとき、相対誤差Reは、θB=20゜、すなわち、θA=θBのときに最小となっている。この条件が、求める[投影部配置条件2]である。 FIG. 4 shows the relationship between the angle formed by the two projection optical axes 20a and 20b and the relative error. Conditions for reducing the error (relative error Re) remaining after performing the averaging process for obtaining the average value of the measured values after satisfying the above-mentioned [projection part arrangement condition 1] [projection part arrangement condition 2] Will be explained. As shown in FIG. 4, the angle θ A formed by the optical axis 20a of the fringe pattern projection unit 2a and the optical axis 30 of the imaging unit 3 is fixed at 20 °, and the optical axis 20b of the fringe pattern projection unit 2b and the imaging unit 3 are fixed. When the angle θ B formed with the optical axis 30 is changed, the relative error Re is minimum when θ B = 20 °, that is, θ A = θ B. This condition is the [projection part arrangement condition 2] to be obtained.
上述のように、角度が等しくなる(θA=θB)のは、2つの投影用光軸20a,20bが、例えば、撮像部3の光軸30に対して線対称に設定されている場合に成り立つ。線対称の場合、3つの光軸20a,20b,30は互いに1つの点Oで交わるが、θA=θBとするには、必ずしもこのようにする必要はない。また、[投影部配置条件1]や[投影部配置条件2]は、必ずしも厳密に満たされなくとも、このような条件に近付けることにより、計測精度を向上できることを説明する。 As described above, the angles are equal (θ A = θ B ) when the two projection optical axes 20 a and 20 b are set to be symmetrical with respect to the optical axis 30 of the imaging unit 3, for example. It holds. In the case of line symmetry, the three optical axes 20a, 20b, and 30 intersect with each other at one point O. However, this is not necessarily required in order to satisfy θ A = θ B. Further, it will be described that [projection part arrangement condition 1] and [projection part arrangement condition 2] are not necessarily strictly satisfied, but the measurement accuracy can be improved by approaching such a condition.
本実施形態の3次元形状計測装置1によれば、上述の[投影部配置条件1,2]を満たすことにより、位相値の誤差に起因する3次元座標の計測誤差を互いに相殺させることができるので、立体的な被計測物体の表面に文字や柄などによる反射率の異なる領域が混在して位相値の誤差が発生するような被計測物体についても計測精度を向上できる。 According to the three-dimensional shape measuring apparatus 1 of the present embodiment, the measurement errors of the three-dimensional coordinates caused by the phase value error can be canceled out by satisfying the above-mentioned [projection unit arrangement conditions 1, 2]. Therefore, it is possible to improve the measurement accuracy even for an object to be measured in which a phase value error occurs due to a mixture of regions having different reflectivities due to characters and patterns on the surface of the three-dimensional object to be measured.
(第2の実施形態)
第2の実施形態に係る3次元形状計測装置について図5を参照して説明する。本実施形態の3次元形状計測装置1は、第1の実施形態における撮像部3の撮像レンズにテレセントリックレンズ11を用い、2つの縞パターン投影部2a,2bから縞パターンSPを投影するための投影レンズに、それぞれテレセントリックレンズ12a,12bを用いるものである。
(Second Embodiment)
A three-dimensional shape measuring apparatus according to the second embodiment will be described with reference to FIG. The three-dimensional shape measuring apparatus 1 of the present embodiment uses a telecentric lens 11 as the imaging lens of the imaging unit 3 in the first embodiment, and is a projection for projecting the fringe pattern SP from the two fringe pattern projection units 2a and 2b. Telecentric lenses 12a and 12b are used for the lenses, respectively.
上述の第1の実施形態における[投影部配置条件1,2]を満たしていても、誤差は0にはならない。これは、撮像部3の撮像素子31や縞パターン投影部2a,2bのパターン生成部22a,22b上の素子から被計測物体側の空間における光線が、それぞれ平行にならないことに起因する。 Even if the [projection part arrangement conditions 1 and 2] in the first embodiment is satisfied, the error does not become zero. This is because the rays in the space on the measured object side from the elements on the image pickup device 31 of the image pickup unit 3 and the pattern generation units 22a and 22b of the stripe pattern projection units 2a and 2b are not parallel to each other.
そこで、パターン生成部22a,22bの対物側、および撮像素子31の対物側におけるレンズを、テレセントリックレンズ11,12a,12bにすることにより、上述の問題を解決する。図5は、[投影部配置条件2]を満たす2つの縞パターン投影部2a,2bに、同じ投影視野の物体側テレセントリックレンズ12a,12bを用いて、撮像部3にも物体側テレセントリックレンズ11を用いた場合の、点M,M1,M2の位置関係を示す。 Therefore, the above-mentioned problems are solved by using telecentric lenses 11, 12a, and 12b as the lenses on the objective side of the pattern generation units 22a and 22b and the objective side of the image sensor 31. FIG. 5 shows that the object side telecentric lens 11 is also applied to the image pickup unit 3 by using the object side telecentric lenses 12a and 12b having the same projection field of view in the two fringe pattern projection units 2a and 2b satisfying [projection unit arrangement condition 2]. The positional relationship between the points M, M1, and M2 when used is shown.
一方のパターン生成部22a上の点P,P1を通る主光線のテレセントリックレンズ12a上の位置をPt,Pt1とする。同様に、他方のパターン生成部22bとテレセントリックレンズ12b上の点R,R1,Rt,Rt1を定義する。このとき、直線Pt−Mと直線Pt1−M1は平行である。また、直線Rt−Mと直線Rt1−M2は平行である。従って、各点間の距離について、(M−M1):(M−M2)=(Pt−Pt1):(Rt−Rt1)という比例関係が成り立つ。また、2つの縞パターン投影部2a,2bで同じ投影視野のレンズを使用していることにより、(Pt−Pt1):(Rt−Rt1)=(P−P1):(R−R1)という比例関係が成り立つ。 The positions on the telecentric lens 12a of the chief rays passing through the points P and P1 on one pattern generation unit 22a are Pt and Pt1. Similarly, points R, R1, Rt, Rt1 on the other pattern generation unit 22b and the telecentric lens 12b are defined. At this time, the straight line Pt-M and the straight line Pt1-M1 are parallel. The straight line Rt-M and the straight line Rt1-M2 are parallel. Therefore, a proportional relationship of (M−M1) :( M−M2) = (Pt−Pt1) :( Rt−Rt1) holds for the distance between the points. Further, since the lenses having the same projection field are used in the two fringe pattern projection units 2a and 2b, a proportionality of (Pt−Pt1) :( Rt−Rt1) = (P−P1) :( R−R1) is established. A relationship is established.
2点間の距離(P−P1)と距離(R−R1)とは、それぞれの縞パターン投影部2a,2bを用いた場合の位相値の誤差の大きさであるから、この2つが等しい場合、(M−M1)=(M−M2)が成り立つ。従って、一方の縞パターン投影部2aまたは2bを用いて得られた計測結果と、他方の縞パターン投影部2bまたは2aを用いて得られた計測結果とを平均化処理することによって、計測誤差を相殺することができる。これは、点P,Q,Rがそれぞれパターン生成部22a,22b上、または撮像素子31上のどの位置にあるかに依存することなく、すなわち、パターン生成部22a,22b上、または撮像素子31上の全面において成り立つ。 The distance between two points (P-P1) and the distance (R-R1) are the magnitudes of phase value errors when the respective fringe pattern projection units 2a and 2b are used. , (M−M1) = (M−M2). Therefore, by averaging the measurement result obtained using one stripe pattern projection unit 2a or 2b and the measurement result obtained using the other stripe pattern projection unit 2b or 2a, the measurement error is reduced. Can be offset. This does not depend on where the points P, Q, and R are on the pattern generation units 22a and 22b or on the image sensor 31, that is, on the pattern generation units 22a and 22b or on the image sensor 31. It holds on the entire surface.
上述の通り、平均化処理によって、どの場合でも誤差をゼロにすることができるのは、撮像部3と、2つの縞パターン投影部2a,2bの全てについて、物体側テレセントリックを用いた場合のみである。しかしながら、撮像部3と2つの縞パターン投影部2a,2bの、いずれかのみを物体側テレセントリックにした場合であっても、誤差は0にはできないものの、全てが非テレセントリック系であるよりは誤差を改善することができる。従って、そのような構成も、装置コストや装置寸法の面で制約がある場合においては、有効に採用することができる。 As described above, the averaging process can make the error zero in any case only when the object side telecentric is used for the imaging unit 3 and the two fringe pattern projection units 2a and 2b. is there. However, even if only one of the imaging unit 3 and the two fringe pattern projection units 2a and 2b is made object-side telecentric, the error cannot be reduced to zero, but the error is more than that of the non-telecentric system. Can be improved. Accordingly, such a configuration can also be effectively employed when there are restrictions in terms of apparatus cost and apparatus dimensions.
本実施形態の3次元形状計測装置1によれば、縞パターン投影部2a,2bからの出射光や撮像部3への入射光を、被計測物体側の空間において平行光線として光学特性を改善できるので、計測精度を向上できる。 According to the three-dimensional shape measuring apparatus 1 of the present embodiment, the optical characteristics can be improved by using the light emitted from the fringe pattern projection units 2a and 2b and the light incident on the imaging unit 3 as parallel rays in the space on the object to be measured. Therefore, measurement accuracy can be improved.
(第3の実施形態)
第3の実施形態に係る3次元形状計測方法について、図6乃至図11を参照して説明する。本実施形態は、上述の第1、第2の実施形態における3次元形状計測装置1を用いて3次元形状計測を行う方法を示すものである。本実施形態では、自己隠蔽により被計測物体の計測領域に影が発生する場合に、計測精度を向上させることについて説明する。
(Third embodiment)
A three-dimensional shape measurement method according to the third embodiment will be described with reference to FIGS. The present embodiment shows a method for performing three-dimensional shape measurement using the three-dimensional shape measurement apparatus 1 in the first and second embodiments described above. In the present embodiment, description will be given of improving measurement accuracy when a shadow occurs in a measurement region of an object to be measured due to self-hiding.
図6は本計測方法の概要を示す。本計測方法では、処理の前半の計測ステップにおいて2組の点群データ取得が独立に行われ(#1,#2)、後半の演算ステップにおいて2組の3次元形状データから微分強度に基づいて画素毎にデータ選択または平均化処理が行われて最良の3次元形状データが決定される(#3)。 FIG. 6 shows an outline of this measurement method. In this measurement method, two sets of point cloud data are acquired independently in the first measurement step (# 1, # 2), and based on the differential intensity from the two sets of three-dimensional shape data in the second calculation step. Data selection or averaging processing is performed for each pixel to determine the best three-dimensional shape data (# 3).
前半の処理は、図7(a)(b)(c)に示すように、撮像、位相復元、3次元形状復元を行う処理であって、中央制御部42の制御のもとで2つの縞パターン投影部2a,2bを用いて行われる。この処理は、一般的な位相シフト法を用いる計測と同様である。また、後半の処理は、図7(d)に示すように、2つの3次元座標データから選択し、またはこれらを平均化により合成する処理であり、計測結果決定部4aによって行われる。 As shown in FIGS. 7A, 7B, and 7C, the first half of the process is a process of performing imaging, phase restoration, and three-dimensional shape restoration, and includes two stripes under the control of the central control unit 42. This is performed using the pattern projection units 2a and 2b. This process is the same as the measurement using a general phase shift method. Further, as shown in FIG. 7D, the latter half of the process is a process of selecting from two three-dimensional coordinate data or combining them by averaging, and is performed by the measurement result determining unit 4a.
図8は、本計測方法の全体のフローチャートを示す。2組の点群データ取得が行われ(S1,S2)、その後、2組の3次元形状データから各画素毎にデータ処理が行われる(ループLP1〜LP11,LP2〜LP22)。 FIG. 8 shows an overall flowchart of this measurement method. Two sets of point cloud data are acquired (S1, S2), and then data processing is performed for each pixel from the two sets of three-dimensional shape data (loops LP1-LP11, LP2-LP22).
(点群データ取得)
図9は、上述のフローチャートにおける点群データ取得処理(S1,S2)を行うサブルーティンを示す。この処理は、縞パターン投影部2a,2bにとって共通の処理である。以下において、式や変数における添字kは、縞パターン投影部2a,2bを識別するAまたはBを表す。この点群データ取得処理では、3次元形状データおよび微分強度データが点群データとして取得される。
(Point cloud data acquisition)
FIG. 9 shows a subroutine for performing the point cloud data acquisition process (S1, S2) in the flowchart described above. This process is common to the fringe pattern projection units 2a and 2b. In the following, the subscript k in expressions and variables represents A or B for identifying the fringe pattern projection units 2a and 2b. In this point cloud data acquisition process, three-dimensional shape data and differential intensity data are acquired as point cloud data.
ここで、「点群データ」という用語について説明する。位相シフト法を用いる3次元形状計測では、計測領域10に対して一定の位置に固定した撮像部3によって種々の画像が撮像され、参照される。これらの画像は、互いに同じ画素数、および互いに同じx,y座標系(図1参照)のもとでの同じ画素配列を有して構成されている。また、各画素は、XYZ座標系(図1参照)で定義される3次元空間における計測領域10の表面の特定の点に対応している。点群データは、これらの特定の点に関するデータ、すなわち、輝度、XYZ座標値、所定の画像についてその点における輝度の微分強度、などのデータの総称である。通常、そのデータの種類毎に画素数と同じ数のデータの集まり(すなわち点群)となる。 Here, the term “point cloud data” will be described. In the three-dimensional shape measurement using the phase shift method, various images are captured and referenced by the imaging unit 3 fixed at a fixed position with respect to the measurement region 10. These images have the same number of pixels and the same pixel arrangement under the same x and y coordinate systems (see FIG. 1). Each pixel corresponds to a specific point on the surface of the measurement region 10 in a three-dimensional space defined by the XYZ coordinate system (see FIG. 1). The point cloud data is a general term for data relating to these specific points, that is, data such as luminance, XYZ coordinate values, and differential intensity of luminance at that point for a predetermined image. Usually, for each type of data, the same number of data as the number of pixels is collected (that is, a point group).
上述のように、点群データは画像中の画素毎に取得されるデータであり、点群データ取得処理は、画像を撮像する画像データ取得処理(S10)、および、演算部44による画素毎の点群データ取得のための画像処理(ループLP3〜LP33,LP4〜LP44)によって行われる。この画像処理では、位相シフト法に関する処理(S11,S12)、および微分強度データの取得が行われる(S13)。 As described above, the point cloud data is data acquired for each pixel in the image, and the point cloud data acquisition processing includes the image data acquisition processing (S10) for capturing an image and the calculation unit 44 for each pixel. This is performed by image processing for acquiring point cloud data (loops LP3 to LP33, LP4 to LP44). In this image processing, processing relating to the phase shift method (S11, S12) and acquisition of differential intensity data are performed (S13).
図10は、画像データ取得処理(S10)を行うサブルーティンを示す。このサブルーティンの処理では、4相の位相シフト法のための4つの縞パターン光による照明のもとでの4つの画像データと、一様照明のもとでの1つの画像データが取得される。縞パターン照明による画像は輝度データIki(x,y),i=0,1,2,3として記録され(LP5〜LP55)、一様照明による画像は輝度データIk(x,y)として記録される(S24〜S26)。ここで、x,yは画像上の画素の位置を示す座標であり、画像のサイズに応じてx=0,1,・・,m,y=0,1,・・,nである。なお、ここでは4相の位相シフト法を用いる例を示すが、3次元形状データを取得するためには、これに限らず3相または5相以上の位相シフト法を用いることもできる。 FIG. 10 shows a subroutine for performing the image data acquisition process (S10). In this subroutine processing, four image data under illumination with four stripe pattern lights for the four-phase phase shift method and one image data under uniform illumination are acquired. . The image by the striped pattern illumination is recorded as luminance data I ki (x, y), i = 0, 1, 2, 3 (LP5 to LP55), and the image by the uniform illumination is represented as luminance data I k (x, y). It is recorded (S24-S26). Here, x and y are coordinates indicating the position of the pixel on the image, and x = 0, 1,..., M, y = 0, 1,. In addition, although the example which uses the phase shift method of 4 phases is shown here, in order to acquire three-dimensional shape data, not only this but the phase shift method of 3 phases or 5 phases or more can also be used.
(縞パターン光による画像データ取得)
中央制御部42は、位相変化ループ(LP5〜LP55)において、変数iの値を各ループ毎にi=0,1,2,3と変化させて、投影縞パターンデータ生成(S20)、縞パターン投影(S21)、撮像(S22)、輝度データ記録(S23)を行う。すなわち、中央制御部42は、正弦波の位相をπ/2ずつ変化させて画像データを輝度データとしてメモリ43に4回取り込む。
(Acquire image data with fringe pattern light)
In the phase change loop (LP5 to LP55), the central control unit 42 changes the value of the variable i to i = 0, 1, 2, 3 for each loop to generate projected fringe pattern data (S20), fringe pattern. Projection (S21), imaging (S22), and luminance data recording (S23) are performed. That is, the central control unit 42 changes the phase of the sine wave by π / 2 and fetches the image data into the memory 43 four times as luminance data.
より具体的に述べると、3次元計測処理部4の縞パターンデータ作成部41が、投影縞パターンデータを生成する(S20)。生成された縞パターンデータは、中央制御部42の制御によって縞パターン投影部2a,2bに転送され、縞パターン投影部2a,2bより、正弦波状に明度が変化する縞パターンSPとして被計測物の計測領域10に投影される(S21)。 More specifically, the fringe pattern data creation unit 41 of the three-dimensional measurement processing unit 4 generates projection fringe pattern data (S20). The generated fringe pattern data is transferred to the fringe pattern projection units 2a and 2b under the control of the central control unit 42, and the fringe pattern projection units 2a and 2b of the object to be measured as the fringe pattern SP whose brightness changes sinusoidally. It is projected onto the measurement area 10 (S21).
縞パターン生成部22a,22bで作られる縞パターンLki(u,v)は、次式(1)に表される。この縞パターンは、明度が正弦波状に変化する。ここで、(u,v)は縞パターン投影部2a,2bの縞パターン生成部22を構成する透過型液晶板上の座標であり、b(u,v)はバイアス値、a(u,v)は振幅、φ(u)は初期位相(i=0の場合の位相)、iπ/2は初期位相からの位相シフト量(i=0,1,2,3)である。 The fringe pattern L ki (u, v) created by the fringe pattern generation units 22a and 22b is expressed by the following equation (1). In the fringe pattern, the brightness changes in a sine wave shape. Here, (u, v) are coordinates on the transmission type liquid crystal plate constituting the fringe pattern generation unit 22 of the fringe pattern projection units 2a and 2b, b (u, v) is a bias value, and a (u, v) ) Is the amplitude, φ (u) is the initial phase (phase when i = 0), and iπ / 2 is the phase shift amount from the initial phase (i = 0, 1, 2, 3).
撮像部3は、縞パターンが投影された被計測物の計測領域10を撮像し(S22)、撮像された各画素の輝度データから成る輝度データIki(x,y)は、3次元計測処理部4のメモリ43に記録される(S23)。 The imaging unit 3 images the measurement area 10 of the measurement object on which the fringe pattern is projected (S22), and the luminance data I ki (x, y) including the luminance data of each captured pixel is a three-dimensional measurement process. It is recorded in the memory 43 of the unit 4 (S23).
(一様照明による画像データ取得)
次に、中央制御部42は、縞パターン投影部2a,2bによって明るさが一様な照明光を被計測物の計測領域10に投影し(S24)、撮像部3によって撮像し(S25)、縞パターンのない一様照明での輝度データIk(x,y)をメモリに記録する(S26)。
(Image data acquisition by uniform illumination)
Next, the central control unit 42 projects illumination light with uniform brightness on the measurement area 10 of the measurement object by the fringe pattern projection units 2a and 2b (S24), and images by the imaging unit 3 (S25). Luminance data I k (x, y) in uniform illumination without a stripe pattern is recorded in the memory (S26).
縞パターンのない画像は、上述のように縞パターンが投影されていない一様照明による状態を撮像して得ることもできるが、位相シフト法計測のために取得した縞パターンの画像を合成して取得することもできる。つまり、具体的な輝度データIkの取得方法として、次の2つの方法を用いることができる。
(1)パターンのない明るさが一定の画像を投影部から投影して撮像する。
(2)Ik=Ik0+Ik1+Ik2+Ik3により合成して求める。
An image without a fringe pattern can be obtained by imaging the state of uniform illumination where the fringe pattern is not projected as described above, but the image of the fringe pattern obtained for the phase shift method measurement is synthesized. It can also be acquired. That is, the following two methods can be used as a specific method for obtaining the luminance data Ik .
(1) An image having a constant brightness without a pattern is projected from the projection unit and picked up.
(2) I k = I k0 + I k1 + I k2 + I k3
(位相算出)
次に、図9に戻って、位相算出(S11)を説明し、その後、3次元データ計算(S12)を説明する。まず、上述の縞パターン投影と撮像によって得られた各画素の輝度値Iki(x,y)(i=0,1,2,3)から、次式(2)によって定義される位相φ(x,y)が算出される(S11)。算出は演算部44において行われる。
(Phase calculation)
Next, returning to FIG. 9, the phase calculation (S11) will be described, and then the three-dimensional data calculation (S12) will be described. First, from the luminance value I ki (x, y) (i = 0, 1, 2, 3) of each pixel obtained by the above-described fringe pattern projection and imaging, the phase φ ( x, y) is calculated (S11). The calculation is performed in the calculation unit 44.
この位相φ(x,y)は、画像全体について定まる1つの位相状態について、座標(x,y)で定まる画素点毎の位相(位相値)の分布データである。この式で表される位相分布データと撮像の幾何学条件等から、被計測物体表面の3次元座標を各画素に割り当てた、いわゆる距離画像が得られる。より詳しく説明すると、計測領域10に投影された縞パターンSPは、計測領域10の3次元形状によって変調(歪曲)される。投影時の位相φ(u)と、撮像した画像から求めた位相φ(x,y)は、もとが同じものであるので、撮像部3の撮像素子31上の座標と液晶板上の座標の対応関係を得ることができる。従って、三角測量の原理によって被計測物表面の計測領域10の3次元座標X,Y,Zが、次式(3)によって求められる(S12)。 This phase φ (x, y) is distribution data of a phase (phase value) for each pixel point determined by coordinates (x, y) in one phase state determined for the entire image. A so-called distance image in which the three-dimensional coordinates of the surface of the object to be measured are assigned to each pixel is obtained from the phase distribution data represented by this equation and the geometric conditions of imaging. More specifically, the fringe pattern SP projected on the measurement region 10 is modulated (distorted) by the three-dimensional shape of the measurement region 10. Since the phase φ (u) at the time of projection and the phase φ (x, y) obtained from the captured image are originally the same, the coordinates on the image sensor 31 of the imaging unit 3 and the coordinates on the liquid crystal plate Can be obtained. Therefore, the three-dimensional coordinates X, Y, Z of the measurement area 10 on the surface of the object to be measured are obtained by the following equation (3) by the principle of triangulation (S12).
ここで、(X,Y,Z)は3次元空間における計測領域10の表面の点の座標、u(φ)は液晶板上における画素の座標(位相が変化する方向の座標)である。またpc,ppはそれぞれ、撮像部3、縞パターン投影部2a,2bのキャリブレーションで求められるパラメータであり、次式(4)(5)を満足する。 Here, (X, Y, Z) is the coordinate of the point on the surface of the measurement region 10 in the three-dimensional space, and u (φ) is the coordinate of the pixel on the liquid crystal plate (the coordinate in the direction in which the phase changes). P c and p p are parameters obtained by calibration of the imaging unit 3 and the fringe pattern projection units 2a and 2b, respectively, and satisfy the following expressions (4) and (5).
上述の処理に基づいて、1つの縞パターン投影部2aまたは2bと撮像部3の組み合わせによる3次元形状計測結果として、画像上の画素位置(x,y)において空間座標データ(X,Y,Z)が定義された3次元点群データPk(x,y;X,Y,Z)が得られる。このように表された3次元点群データは、画像上の1点が3次元点の1点に対応することから、3次元座標ベクトル(X,Y,Z)を値として持つ離散関数である。 Based on the above processing, spatial coordinate data (X, Y, Z) at the pixel position (x, y) on the image is obtained as a three-dimensional shape measurement result by a combination of one stripe pattern projection unit 2a or 2b and the imaging unit 3. ) Is defined, three-dimensional point group data P k (x, y; X, Y, Z) is obtained. The three-dimensional point cloud data represented in this way is a discrete function having a three-dimensional coordinate vector (X, Y, Z) as a value since one point on the image corresponds to one point of the three-dimensional point. .
ところで、隠蔽によって縞パターンSPが投影されていない被計測領域(影の部分)の点や、撮像部3に向けて十分に光を反射しないような被計測領域の点の画素については、正しく3次元座標を求めることができない。そこで、次式(6)で定義される正弦波の振幅A(x,y)が一定値以下になる点を、このような計測不可能点として扱う。このような点の画素に対応する3次元座標は定義されないことになる。3次元座標が定義されない点については、記号NULLを用いて、Pk(x,y)=NULLのように表す。 By the way, about the point of the to-be-measured area | region (shadow part) where the fringe pattern SP is not projected by concealment, and the pixel of the to-be-measured area | region point which does not fully reflect light toward the imaging part 3, 3 correctly. Dimensional coordinates cannot be obtained. Therefore, the point where the amplitude A (x, y) of the sine wave defined by the following equation (6) is a certain value or less is treated as such an unmeasurable point. A three-dimensional coordinate corresponding to the pixel of such a point is not defined. A point where the three-dimensional coordinates are not defined is expressed as P k (x, y) = NULL using the symbol NULL.
(微分強度データ計算)
図9における処理では、一様照明での輝度データIk(x,y)について微分強度データ(微分強度画像)を求める計算が行われる(S13)。微分強度画像は、画像のx方向(水平方向)について輝度データの微分値を算出し、その絶対値(すなわち強度)をとって求められる。この算出には、例えばSobelフィルタを用いることができる。輝度データIkに対応するx方向の微分値Dk(x,y)は、次式(7)で求められる。
(Differential intensity data calculation)
In the process shown in FIG. 9, calculation is performed to obtain differential intensity data (differential intensity image) for luminance data I k (x, y) in uniform illumination (S13). The differential intensity image is obtained by calculating a differential value of luminance data in the x direction (horizontal direction) of the image and taking the absolute value (that is, intensity). For this calculation, for example, a Sobel filter can be used. A differential value D k (x, y) in the x direction corresponding to the luminance data I k is obtained by the following equation (7).
上式のように画像のx方向について輝度データの微分強度を求めるのは、次の理由による。すなわち、x方向は、縞パターン投影部2a,2bによって照明する照明光の方向(向きは互いに異なる)であり、被計測物体の自己隠蔽による影はx方向の前方または後方に発生する。その影の境界は、x方向に直交する方向成分を優勢な成分として有する。このような影の領域を検出するためにx方向の微分強度が有効に用いられる。 The differential intensity of the luminance data is obtained in the x direction of the image as in the above equation for the following reason. That is, the x direction is the direction of the illumination light illuminated by the fringe pattern projection units 2a and 2b (the directions are different from each other), and a shadow due to the self-concealment of the object to be measured occurs in front of or behind the x direction. The shadow boundary has a direction component orthogonal to the x direction as a dominant component. In order to detect such a shadow area, the differential intensity in the x direction is effectively used.
以上の処理により、図8のステップS1,S2における、縞パターン投影部2a,2bによる2組の点群データ取得が完了し、3次元形状データPk(x,y;X,Y,Z),k=A,B、微分強度データDk(x,y),k=A,Bが取得される。以下では、図8における各画素についての最良の3次元形状データの選択による画素データの決定と平均化の処理を説明する(ループLP1〜LP11、LP2〜LP22)。なお、Pk(x,y;X,Y,Z)をPk(x,y)と表記し、選択決定された最終の3次元形状データをP(x,y;X,Y,Z)、またはP(x,y)と表記する。 With the above processing, two sets of point cloud data acquisition by the fringe pattern projection units 2a and 2b in steps S1 and S2 of FIG. 8 is completed, and the three-dimensional shape data P k (x, y; X, Y, Z). , K = A, B, differential intensity data D k (x, y), k = A, B are acquired. Hereinafter, pixel data determination and averaging processing by selecting the best three-dimensional shape data for each pixel in FIG. 8 will be described (loops LP1 to LP11, LP2 to LP22). Note that P k (x, y; X, Y, Z) is expressed as P k (x, y), and the final selected three-dimensional shape data is P (x, y; X, Y, Z). Or P (x, y).
(画素データの決定)
図8におけるループ処理において(ループLP1〜LP11,LP2〜LP22)、座標x,yによって指定された特定の画素について、PA(x,y),PB(x,y)の存在の如何が判断され、いずれか一方のみが存在する場合には、その値が選択され、P(x,y)=PA(x,y)、または、P(x,y)=PB(x,y)とされる(S6,S8)。また、いずれも存在していなければ(S3,S7でNo)、P(x,y)は、非存在とされ、「999」などの所定の異常値がP(x,y)に与えられる(S9)。
(Determination of pixel data)
In the loop processing in FIG. 8 (loops LP1 to LP11, LP2 to LP22), whether or not P A (x, y) and P B (x, y) exist for a specific pixel specified by coordinates x and y. If only one of them is present, the value is selected and P (x, y) = P A (x, y) or P (x, y) = P B (x, y ) (S6, S8). If none exists (No in S3 and S7), P (x, y) is not present, and a predetermined abnormal value such as “999” is given to P (x, y) ( S9).
上述の処理(S6,S8,S9)は、各縞パターン投影部2a,2bからの投影方向に依存して発生する3次元立体形状に起因する隠蔽(影ができる、いわゆるオクルージョン)のため計測結果がなくなる場合の対応処理である。これにより、2種類の測定結果のうち、一方が隠蔽の影響を受ける場合、他方を正しい計測結果として選択して、隠蔽部分の補完をすることができる。 The above-described processing (S6, S8, S9) is a measurement result due to concealment (so-called occlusion that can cause a shadow) due to a three-dimensional solid shape generated depending on the projection direction from each of the fringe pattern projection units 2a, 2b. This is a response process when there is no more. Thereby, when one of the two types of measurement results is affected by concealment, the other can be selected as a correct measurement result and the concealed portion can be complemented.
PA(x,y),PB(x,y)がいずれも存在する場合に(S3とS4でYes)、微分強度に基づく画素データの選択決定が行われる(S5)。ここの処理では、処理の対象となる画素データが、隠蔽によって画像に生じた影の境界部分のデータか、または影から離れた位置のデータかによって区別され、それぞれ最適化される。影の境界部分では、影の影響で輝度値が正常値から変化している(ぼけが発生している)と考えられる。影の境界部分の検出に微分強度が用いられる。 When both P A (x, y) and P B (x, y) exist (Yes in S3 and S4), the pixel data selection decision based on the differential intensity is performed (S5). In this process, the pixel data to be processed is differentiated depending on whether it is the data of the boundary part of the shadow generated in the image by concealment or the data away from the shadow, and is optimized respectively. It is considered that the luminance value has changed from the normal value (blurred) due to the influence of the shadow at the shadow boundary. Differential intensity is used to detect shadow boundaries.
図11は、上述の微分強度に基づく画素データ決定処理(S5)を行うサブルーティンを示す。ここで、微分強度データDk(x,y),k=A,Bを簡単に、微分強度DA,DBと表す。現在処理中の座標x,yにおける画素について、微分強度の差DA−DBを所定の閾値Tと比較し、差が閾値より大きければ(DA−DB>T、#10でYes)、P(x,y)=PB(x,y)とする(#11)。逆に、微分強度の差、DA−DBが、閾値Tより小さければ、すなわち、−(DA−DB)>Tであれば(#12でYes)、P(x,y)=PA(x,y)とする(#13)。 FIG. 11 shows a subroutine for performing the pixel data determination process (S5) based on the above-described differential intensity. Here, the differential intensity data D k (x, y), k = A, B easily and differential intensity D A, expressed as D B. For the pixel at the coordinates x, y currently being processed, the differential intensity difference D A −D B is compared with a predetermined threshold T, and if the difference is greater than the threshold (D A −D B > T, Yes at # 10). , P (x, y) = P B (x, y) (# 11). Conversely, if the differential intensity difference D A −D B is smaller than the threshold T, that is, if − (D A −D B )> T (Yes in # 12), then P (x, y) = P A (x, y) is set (# 13).
また、差DA−DBが閾値Tよりも大きくなく、かつ、−Tよりも小さくなければ、すなわち、差の絶対値が閾値以下、|DA−DB|≦Tの場合(#10,#12でNo)、平均値を算出して、P(x,y)=(PA(x,y)+PB(x,y))/2とする(#14)。 If the difference D A −D B is not larger than the threshold T and smaller than −T, that is, if the absolute value of the difference is equal to or smaller than the threshold and | D A −D B | ≦ T (# 10 , # 12, No), and the average value is calculated to be P (x, y) = (P A (x, y) + P B (x, y)) / 2 (# 14).
上述の選択および平均値化の処理の原理を、さらに、図12乃至図15を参照して説明する。図12(a)は、縞パターン投影部2aによって方向LAからの一様照明のもとで撮像した画像IAを示し、隠蔽による影が領域15にy方向に沿って発生している。図12(b)は、前記と同じ計測領域を、縞パターン投影部2bによって方向LBからの一様照明のもとで撮像した画像IBを示し、領域15には影が発生していない。 The principle of the above selection and averaging process will be further described with reference to FIGS. Figure 12 (a) shows an image I A captured under uniform illumination from a direction LA by fringe pattern projection unit 2a, a shadow due to concealment occurs along the y-direction in the region 15. FIG. 12 (b), the same measurement area and the by fringe pattern projection unit 2b shows an image I B captured under uniform illumination from the direction LB, is not generated shadow in the region 15.
図13(a)(b)は、それぞれ上述の画像IA,IBから、前出の式(7)によって求めた微分強度画像DA,DBである。画像DAにおいては、領域15と領域16に影の痕跡と境界部分の痕跡が認められ、画像DBにおいては、痕跡が認められない。 FIGS. 13A and 13B are differential intensity images D A and D B obtained from the above-described images I A and I B , respectively, according to the above equation (7). In the image D A, it observed traces traces the boundary portion of the shadow region 15 and region 16, in the image D B, is not observed trace.
図14(a)は、上述の画像IAに対応して段差がある計測領域の3次元形状計測データについて、あるy座標値(Y座標値)におけるZ座標の測定値をX座標に対する変数値として示す。この測定結果では、段差による隠蔽のため領域x1における計測値(破線が真の座標値)が得られなく、境界部分である領域x2においては、影の影響のため真値からのずれが発生している。 FIG. 14 (a), the three-dimensional shape measurement data of the measurement region there is a step corresponding to the image I A above, variable value measurements of Z-coordinate at a y-coordinate values (Y coordinate value) for the X coordinate As shown. In this measurement result, the measurement value in the region x1 (the true coordinate value of the broken line is not obtained) due to the concealment by the step, and the deviation from the true value occurs in the region x2 which is the boundary portion due to the influence of the shadow. ing.
図14(b)は、同様に上述の画像IBに対応するZ座標の測定値を示す。この測定結果では、影の発生がないので、真値に沿った結果が得られている。なお、領域x1,x2は上述の領域15,16に対応する。 Figure 14 (b) shows the measured values of the Z coordinate corresponding to the image I B described above as well. In this measurement result, since no shadow is generated, a result along the true value is obtained. The regions x1 and x2 correspond to the above-described regions 15 and 16.
図14(a2)(b2)は、それぞれ上述の画像IA,IBに対応する図である。ここで、画像IAにおいて、領域x1のように隠蔽による影の部分を領域a1、領域x2のように影の境界部分を領域a2、その他の部分を領域a3とする。また、画像IBにおいて、領域a1,a2,a3に対応する部分を、領域b1,b2,b3とする。 FIGS. 14A2 and 14B2 are diagrams corresponding to the above-described images I A and I B , respectively. Here, in the image I A, region a1 and the shadow portion due to concealment as regions x1, and in the boundary portion of the shadow region a2, the other partial regions a3 as region x2. In the image I B, the portion corresponding to the region a1, a2, a3, and regions b1, b2, b3.
上述の図8におけるステップS8の処理は、領域b1における計測値を採用する処理であり、図11におけるステップ#11の処理は、領域b2における計測値を採用する処理であり、図11におけるステップ#14の処理は、領域a3と領域b3における計測値の平均値を採用する処理である。これらの処理に関して、PA(x,y)とPB(x,y)とは互いに相補的であり、一方に影ができて他方に影ができないときに、または、共に影ができないときに、互いに補完し合ってP(x,y)の計測精度を向上させることができる。 The process of step S8 in FIG. 8 described above is a process that employs the measurement value in the area b1, and the process of step # 11 in FIG. 11 is a process that employs the measurement value in the area b2, and step # in FIG. The process 14 is a process that employs an average value of the measurement values in the area a3 and the area b3. With regard to these processes, P A (x, y) and P B (x, y) are complementary to each other, and when one side has a shadow and the other cannot have a shadow, or both cannot shadow. By complementing each other, the measurement accuracy of P (x, y) can be improved.
図15(a)は、図14(a2)における、あるy値についての輝度値IAxおよび微分強度DAx(これは絶対値)のx方向変化を示し、図15(b)は、同様に、図14(b2)における輝度値IBxおよび微分強度DBxのx方向変化を示す。これらの図から、微分強度の差(DA−DB)によって領域x2を検出できることが分かる。つまり、IA,IBについての微分強度の差が大きい箇所は、どちらかに影の境界線ができている場所であると判断でき、影のない方の3次元点を選択することができる。 FIG. 15 (a) shows the change in the x direction of the luminance value I Ax and the differential intensity D Ax (which is an absolute value) for a certain y value in FIG. 14 (a2), and FIG. 14 shows changes in the x-direction of the luminance value I Bx and the differential intensity D Bx in FIG. From these figures, it can be seen that the region x2 can be detected by the difference in differential intensity (D A -D B ). In other words, it is possible to determine that a portion having a large differential intensity difference between I A and I B is a location where a shadow boundary is formed on either side, and a three-dimensional point with no shadow can be selected. .
これは、物体表面のテクスチャ(文字や柄)の場合は、どちらからの投影であっても微分強度はほぼ等しい値になるのに対し、隠蔽により、どちらか一方の投影によってできた影の場合は一方にしか大きい微分強度値が現れない、ということを利用している。そこで、例えば、図11におけるステップ#10において、DA−DB>Tが成立して領域a2が検出されるので、P(x,y)として、領域b2における計測値PB(x,y)が採用される。 This is because in the case of textures (characters and patterns) on the object surface, the differential intensity is almost the same regardless of the projection from either, whereas in the case of shadows created by either projection due to concealment Uses the fact that a large differential intensity value appears only on one side. Therefore, for example, in step # 10 in FIG. 11, since D A −D B > T is established and the region a2 is detected, the measured value P B (x, y) in the region b2 is set as P (x, y). ) Is adopted.
本実施形態の3次元形状計測方法によれば、2つの縞パターン投影部2a,2bによって取得した3次元形状計測データを、照明方向に沿って輝度を微分した微分強度に基づいて計測データを選択し、さらには、計測データの平均値を算出して計測結果とするので、隠蔽による影の部分や、影の境界部分や、影や影の境界ではない部分において、それぞれ最適の計測結果とすることができ、3次元形状計測の精度を向上させることができる。また、平均化処理によると、ランダム雑音の影響を低減させることができ、3次元形状計測の精度を向上させることができる。 According to the three-dimensional shape measurement method of this embodiment, the measurement data is selected based on the differential intensity obtained by differentiating the luminance along the illumination direction from the three-dimensional shape measurement data acquired by the two stripe pattern projection units 2a and 2b. In addition, since the average value of the measurement data is calculated and used as the measurement result, the optimum measurement result is obtained for the shadow portion due to concealment, the shadow boundary portion, and the portion that is not the shadow or shadow boundary. It is possible to improve the accuracy of three-dimensional shape measurement. Moreover, according to the averaging process, the influence of random noise can be reduced, and the accuracy of three-dimensional shape measurement can be improved.
また、本実施形態の3次元形状計測方法は、2つの縞パターン投影部2a,2bが対向配置されている(図1、図2)ことによる装置特性だけを用いているので、それぞれの縞パターン投影部2a,2bによって投影される縞パターンSPのパターン変化方向5の向きには依存していない処理である。 Further, since the three-dimensional shape measuring method of the present embodiment uses only the device characteristics due to the two fringe pattern projection units 2a and 2b being arranged to face each other (FIGS. 1 and 2), each fringe pattern This is a process that does not depend on the direction of the pattern change direction 5 of the fringe pattern SP projected by the projection units 2a and 2b.
(第4の実施形態)
第4の実施形態に係る3次元形状計測方法について、図16乃至図21を参照して説明する。本実施形態は、上述の第3の実施形態における隠蔽部分(領域a1)および影の境界部分(領域a2)の求め方(特定の仕方)を、微分強度を用いるのではなく、差分画像、2値化処理、および膨張処理によって行うものである。従って、点群データの取得の部分は、第3の実施形態と同様である。
(Fourth embodiment)
A three-dimensional shape measurement method according to the fourth embodiment will be described with reference to FIGS. In the present embodiment, the method of obtaining (specific method) the concealment portion (region a1) and the shadow boundary portion (region a2) in the third embodiment described above is not a differential image, but a differential image, 2 This is performed by the value processing and the expansion processing. Accordingly, the point cloud data acquisition part is the same as in the third embodiment.
図16(a)は、縞パターン投影部2aによって図の左方からの一様照明のもとで撮像した画像IAを示し、右側に隠蔽による影SAが発生しており、図16(b)は、前記と同じ計測領域を、縞パターン投影部2bによって右方からの一様照明のもとで撮像した画像IBを示し、左側に影SBが発生している。 Figure 16 (a) shows an image I A captured under uniform illumination from the left in the drawing by fringe pattern projection unit 2a, and the shadow S A is generated by concealment to the right, FIG. 16 ( b) is the same measurement area and the by fringe pattern projection unit 2b shows an image I B captured under uniform illumination from the right, the shadow S B are generated on the left side.
図17(a)は、上記2つの画像の差分画像(IA−IB)を示し、図17(b)は、同様に差分画像(IB−IA)を示す。この差分処理において、例えば、画像の暗部の輝度値をゼロとし、明部を輝度値をその明るさに応じた正値とすると、一方の画像における影(暗部)に対応する部分が、他方の画像における明部から取り出される。輝度値の差分値が負の値は、画像において暗部とされている。 FIG. 17A shows a difference image (I A −I B ) between the two images, and FIG. 17B similarly shows a difference image (I B −I A ). In this difference processing, for example, when the luminance value of the dark part of the image is set to zero and the luminance value of the bright part is set to a positive value corresponding to the brightness, the portion corresponding to the shadow (dark part) in one image is Extracted from the bright part of the image. A negative value of the difference between the luminance values is a dark part in the image.
図18(a)(b)は、上記差分画像(IA−IB),(IB−IA)を所定の閾値で明暗(白黒)の2値とし2値化画像GA,GBである。この処理により、画像IAにおける影SA部分が2値化画像GBに領域eAとして抽出され、画像IBにおける影SB部分が2値化画像GAに領域eBとして抽出される。 FIGS. 18A and 18B show binary images G A and G B in which the difference images (I A −I B ) and (I B −I A ) are converted into light and dark (black and white) binary values with a predetermined threshold. It is. This process, shadow S A portion of the image I A is extracted as an area e A the binary image G B, shadow S B portion in the image I B is extracted as a region e B to the binary image G A .
図19(a)(b)は、それぞれ、上記2値化画像GA,GBにおいて明部、すなわち領域eA,eBを膨張処理して、拡張領域EA,EBとした拡張2値化画像GAE,GBEである。この膨張処理は、明部(白部)の各画素について、所定の画素数α、例えばα=5だけ周囲の画素を白とする処理である。この処理により、抽出された影の領域の周辺部分が画素数αだけ拡張される(広がる)ことになり、影の境界部分が拡張領域EA,EBに取り込まれることになる。 19 (a) and 19 (b) show an expansion 2 in which the bright portions, that is, the regions e A and e B are expanded in the binarized images G A and G B to form expansion regions E A and E B , respectively. These are the digitized images G AE and G BE . This expansion process is a process in which the surrounding pixels are white by a predetermined pixel number α, for example, α = 5, for each pixel in the bright part (white part). By this processing, the peripheral part of the extracted shadow area is expanded (expanded) by the number of pixels α, and the shadow boundary part is taken into the extended areas E A and E B.
図20は、点群データを取得し、上述の拡張領域EA,EBを生成するまでの処理のフローチャートを示す。ステップS31,S32の処理は、図8におけるステップS1,S2の処理と同様である。ステップS33では、各画素の輝度値の差分から成るいわゆる差分画像ID(x,y)=ID=IA−IBが算出される。この差分画像における各画素は、一般に正負の差分値を有し、その絶対値が大きな画素は隠蔽による影の部分に対応する。 FIG. 20 shows a flowchart of processing until point cloud data is acquired and the above-described extended areas E A and E B are generated. Steps S31 and S32 are the same as steps S1 and S2 in FIG. In step S33, a so-called difference image I D (x, y) = I D = I A −I B is calculated, which is composed of the difference in luminance value of each pixel. Each pixel in the difference image generally has a positive / negative difference value, and a pixel having a large absolute value corresponds to a shadow portion due to concealment.
上述の隠蔽による影の部分を明確化するために、を正負の閾値(DTH>0、と−DTH)で2値化して、2値化画像GA,GBを算出する(S34)。ID(x,y)≧DTHの場合に画素値を1(明)とし、ID(x,y)<DTHの場合に画素値を0(暗)とする。このようにして得られた画像GA(x,y)は、IBにおける影の部分を明部として有する画像である(図16乃至図19の説明参照)。同様に、ID(x,y)≦−DTHの場合に画素値を1(明)とし、ID(x,y)>−DTHの場合に画素値を0(暗)とする。このようにして得られた画像GB(x,y)は、IAにおける影の部分を明部として有する画像である。 In order to clarify the shadow portion due to the above-described concealment, binarization is performed with positive and negative threshold values (D TH > 0 and −D TH ), and binarized images G A and G B are calculated (S34). . When I D (x, y) ≧ D TH , the pixel value is 1 (bright), and when I D (x, y) <D TH , the pixel value is 0 (dark). The thus obtained image G A (x, y) is an image having a portion of the shadow under I B as a light unit (see description of FIGS. 16 to 19). Similarly, when I D (x, y) ≦ −D TH , the pixel value is 1 (bright), and when I D (x, y)> − D TH , the pixel value is 0 (dark). The image G B (x, y) obtained in this way is an image having a shadow portion in I A as a bright portion.
次に、上述の影の部分に影の境界部分を含ませるために、画像GA(x,y),GB(x,y)における値1を有する画素を、それぞれα(定数)画素拡張し、得られた画像をGAE(x,y),GBE(x,y)とする(S35)。 Next, in order to include the boundary portion of the shadow in the shadow portion described above, the pixels having the value 1 in the images G A (x, y) and G B (x, y) are expanded by α (constant) pixels, respectively. The obtained images are designated as G AE (x, y), G BE (x, y) (S35).
上述の明部が拡張された2つの画像における値1を有する画素領域が、それぞれ影の境界部分を包含する領域EA,EBとして抽出される(S36)。 Pixel regions having a value of 1 in the two images in which the bright parts are expanded are extracted as regions E A and E B each including a shadow boundary portion (S36).
(画素データの決定)
図21は、第3の実施形態の図8のフローチャートにおけるxyループ部分に対応する処理ルーティンを示す。xyループ処理において(ループLP1〜LP11,LP2〜LP22)、座標x,yによって指定された特定の画素(注目画素)について、PA(x,y),PB(x,y)の存在の如何が判断され、いずれも存在していなければ(S3,S7でNo)、P(x,y)は、非存在とされ、「999」などの所定の異常値がP(x,y)に与えられる(S42)。
(Determination of pixel data)
FIG. 21 shows a processing routine corresponding to the xy loop portion in the flowchart of FIG. 8 of the third embodiment. In the xy loop processing (loops LP1 to LP11, LP2 to LP22), the presence of P A (x, y) and P B (x, y) is present for a specific pixel (target pixel) designated by coordinates x and y. If it is judged and none of them exists (No in S3 and S7), P (x, y) is not present, and a predetermined abnormal value such as “999” is set to P (x, y). (S42).
また、少なくともいずれか一方が存在する場合には(S41でYes)、注目画素が領域EB内かどうか判断され、EB内であれば(S43でYes)、P(x,y)=PA(x,y)とされる(S44)。また、EB内でなければ(S43でNo)、さらに領域EA内かどうか判断され、EA内であれば(S45でYes)、P(x,y)=PB(x,y)とされる(S46)。 Further, if at least one is present (Yes in S41), the pixel of interest is determined whether the area E B, if the E B (Yes in S43), P (x, y ) = P A (x, y) is set (S44). Further, if not the E B (No in S43), it is judged further whether the area E A, if the E A (Yes in S45), P (x, y ) = P B (x, y) (S46).
注目画素が領域EA,EB内のいずれでもない場合には(S45でNo)、平均値が算出され、P(x,y)=(PA(x,y)+PB(x,y))/2とされる(S47)。 When the pixel of interest is not in any of the areas E A and E B (No in S45), an average value is calculated, and P (x, y) = (P A (x, y) + P B (x, y )) / 2 (S47).
本実施形態の3次元形状計測方法によれば、隠蔽による影の部分と影の境界部分について、近接する画素間の輝度値の差分に基づく離散的な微分強度によらずに、適切な計測結果の選択を確実に実行でき、計測誤差を低減して精度の高い計測ができる。また、本実施形態の計測方法は、上述の第3の実施形態と同様に、各縞パターン投影部2a,2bによって投影される縞パターンSPのパターン変化方向5の向きには依存していない処理である。 According to the three-dimensional shape measurement method of the present embodiment, an appropriate measurement result can be obtained for the shadow portion due to concealment and the boundary portion of the shadow without depending on the discrete differential intensity based on the difference in luminance value between adjacent pixels. Can be reliably executed, measurement errors can be reduced, and highly accurate measurement can be performed. In addition, the measurement method of the present embodiment is a process that does not depend on the direction of the pattern change direction 5 of the fringe pattern SP projected by each of the fringe pattern projection units 2a and 2b, as in the third embodiment. It is.
(第5の実施形態)
図22は、第5の実施形態に係る3次元形状計測装置および計測方法を示す。本実施形態は、第1または第2の実施形態とは、縞パターン投影部2a,2bが投影する縞パターンSPのパターン変化方向5をX軸方向(x軸方向)からずらした互いに平行な同じ方向としている点が異なり、他の点は同様である。
(Fifth embodiment)
FIG. 22 shows a three-dimensional shape measurement apparatus and measurement method according to the fifth embodiment. This embodiment is the same as the first or second embodiment in parallel to each other, in which the pattern change direction 5 of the stripe pattern SP projected by the stripe pattern projection units 2a and 2b is shifted from the X-axis direction (x-axis direction). The direction is different, and the other points are the same.
本実施形態の3次元形状計測方法および装置によると、第1または第2の実施形態と同様に、2つの縞パターン投影部2a,2bを互いに対向する位置に配置する構成としており、各縞パターン投影部2a,2bによって投影される縞パターンSPのパターン変化方向5の向きを同じとしているので、第1、第2の実施形態と同様に、位相値の誤差に起因する3次元座標の計測誤差を互いに相殺させることができ、表面に文字や柄などによる反射率の異なる領域が混在して位相値の誤差が発生するような被計測物体についても計測精度を向上できる。 According to the three-dimensional shape measurement method and apparatus of the present embodiment, as in the first or second embodiment, the two stripe pattern projection units 2a and 2b are arranged at positions facing each other, and each stripe pattern Since the direction of the pattern change direction 5 of the fringe pattern SP projected by the projection units 2a and 2b is the same, the measurement error of the three-dimensional coordinates caused by the phase value error is the same as in the first and second embodiments. Can be offset each other, and the measurement accuracy can be improved even for an object to be measured in which areas having different reflectivities due to characters, patterns, and the like are mixed on the surface and a phase value error occurs.
また、本実施形態の3次元形状計測方法および装置によると、2つの縞パターン投影部2a,2bを互いに対向する位置に配置する構成としているので、第3、第4の実施形態と同様に、各縞パターン投影部2a,2bによって投影される縞パターンSPのパターン変化方向5の向きには依存せずに、一方側からの照明によって発生する隠蔽(オクルージョン)による計測データの欠損や影の境界部分におけるデータ損傷を、他方側からの照明による計測データによって補完することができる。 Further, according to the three-dimensional shape measurement method and apparatus of the present embodiment, since the two fringe pattern projection units 2a and 2b are arranged at positions facing each other, similarly to the third and fourth embodiments, Without depending on the direction of the pattern change direction 5 of the fringe pattern SP projected by each fringe pattern projection unit 2a, 2b, measurement data loss or shadow boundary due to occlusion caused by illumination from one side Data damage in the part can be supplemented by measurement data from illumination from the other side.
なお、本発明は、上記各実施形態によって示した構成に限られることなく種々の変形が可能である。例えば、上述した各実施形態の構成を互いに組み合わせた構成とすることができる。また、位相シフト法で用いられる縞パターンSPは、明度が必ずしも正弦波状に変化するパターンである必要はなく、明度が周期的に変化する縞パターンであればよい。 The present invention is not limited to the configuration shown in the above embodiments, and various modifications can be made. For example, the configurations of the above-described embodiments can be combined with each other. Further, the stripe pattern SP used in the phase shift method does not necessarily have to be a pattern in which the brightness changes in a sine wave shape, and may be a stripe pattern in which the brightness changes periodically.
1 3次元形状計測装置
2,2a,2b 縞パターン投影部
3 撮像部
4 計測処理部
10 計測領域
11,12a,12b テレセントリックレンズ
20,20a,20b 投影用光軸
30 撮像部光軸
SP 縞パターン
X,Y,Z 3次元座標
DESCRIPTION OF SYMBOLS 1 3D shape measuring device 2, 2a, 2b Stripe pattern projection part 3 Imaging part 4 Measurement processing part 10 Measurement area 11, 12a, 12b Telecentric lens 20, 20a, 20b Projection optical axis 30 Imaging part Optical axis SP Stripe pattern X , Y, Z 3D coordinates
Claims (5)
被計測物体の計測領域上方に撮像部を設置し、前記撮像部の光軸を含む平面内に投影用光軸を2つ設定し、前記投影用光軸の各方向からそれぞれ独立に計測領域に縞パターンを投影すると共に前記撮像部によって撮像して2種類の3次元座標を求める計測ステップと、
前記計測ステップにより前記撮像部の撮像素子上の1点に対応して得られる2種類の3次元座標の平均値を算出する演算ステップと、を含み、
前記2つの投影用光軸の一方から縞パターンを投影して撮像された画像に影が生じた場合に、その影の部分を任意の距離だけ拡張した領域について、他方の投影用光軸から縞パターンを投影して撮像された画像に基づく3次元座標を用いることを特徴とする3次元形状計測方法。 A fringe pattern whose brightness changes in a sine wave shape is projected onto an object to be measured three or more times with different phases, and the three-dimensional coordinates of the object to be measured at each pixel are obtained by a phase shift method using the obtained images. In the 3D shape measurement method to be obtained,
An imaging unit is installed above the measurement area of the object to be measured, two projection optical axes are set in a plane including the optical axis of the imaging unit, and the measurement area is independently set from each direction of the projection optical axis. A measurement step of projecting a fringe pattern and capturing an image by the imaging unit to obtain two types of three-dimensional coordinates;
Seen including a calculation step, the calculating the average value of the two three-dimensional coordinates obtained corresponding to a point on the image sensor of the imaging unit by the measuring step,
When a shadow is generated in an image picked up by projecting a stripe pattern from one of the two projection optical axes, a stripe is formed from the other projection optical axis in a region in which the shadow is expanded by an arbitrary distance. A three-dimensional shape measuring method, wherein three- dimensional coordinates based on an image captured by projecting a pattern are used .
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2008113385A JP5055191B2 (en) | 2008-04-24 | 2008-04-24 | Three-dimensional shape measuring method and apparatus |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2008113385A JP5055191B2 (en) | 2008-04-24 | 2008-04-24 | Three-dimensional shape measuring method and apparatus |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2009264862A JP2009264862A (en) | 2009-11-12 |
JP5055191B2 true JP5055191B2 (en) | 2012-10-24 |
Family
ID=41390903
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2008113385A Active JP5055191B2 (en) | 2008-04-24 | 2008-04-24 | Three-dimensional shape measuring method and apparatus |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP5055191B2 (en) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105547190A (en) * | 2015-12-14 | 2016-05-04 | 深圳先进技术研究院 | Three-dimensional shape measuring method and device based on dual-angle single-frequency fringe projection |
CN105841607A (en) * | 2016-03-16 | 2016-08-10 | 苏州富强科技有限公司 | Three-dimensional vision rotary measurement system based on line structured light |
CN105841606A (en) * | 2016-03-16 | 2016-08-10 | 苏州富强科技有限公司 | Three-dimensional vision measurement device based on line structured light |
Families Citing this family (33)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP5457825B2 (en) * | 2009-12-24 | 2014-04-02 | ローランドディー.ジー.株式会社 | 3D shape measuring method and 3D shape measuring apparatus |
KR101174676B1 (en) | 2010-11-19 | 2012-08-17 | 주식회사 고영테크놀러지 | Method and apparatus of profiling a surface |
WO2013066351A1 (en) | 2011-11-04 | 2013-05-10 | Empire Technology Development Llc | Ir signal capture for images |
CN102519394B (en) * | 2011-11-18 | 2014-04-16 | 东南大学 | High-adaptability three-dimensional measuring method based on color structured light |
CN102519395B (en) * | 2011-11-25 | 2013-12-18 | 东南大学 | Color response calibration method in colored structure light three-dimensional measurement |
CN102564348A (en) * | 2012-01-03 | 2012-07-11 | 四川大学 | Systematic geometric demarcation method for reflection three-dimensional measurement of stripe |
CN102589478B (en) * | 2012-02-29 | 2014-05-21 | 天津工业大学 | A Global Phase Dephasing Method Applied to Multi-Frequency 3D Measurement |
CN103376071B (en) * | 2012-04-20 | 2017-06-30 | 德律科技股份有限公司 | Three-dimensional measurement system and three-dimensional measurement method |
JP6029394B2 (en) * | 2012-09-11 | 2016-11-24 | 株式会社キーエンス | Shape measuring device |
CN102937418B (en) * | 2012-10-18 | 2015-09-09 | 北京航空航天大学 | A kind of scan-type object surface three-dimensional shape measurement method and device |
JP6046997B2 (en) * | 2012-11-30 | 2016-12-21 | 株式会社キーエンス | Optical microscope |
JP6077287B2 (en) * | 2012-11-30 | 2017-02-08 | 株式会社キーエンス | Optical microscope and pattern projection measurement method |
JP5963658B2 (en) * | 2012-11-30 | 2016-08-03 | 株式会社キーエンス | Measurement microscope apparatus, measurement method and operation program using the same, and computer-readable recording medium |
JP5964220B2 (en) * | 2012-11-30 | 2016-08-03 | 株式会社キーエンス | Measurement microscope apparatus, measurement method and operation program using the same, and computer-readable recording medium |
EP2975921B1 (en) * | 2013-03-12 | 2019-12-18 | FUJI Corporation | Component recognition system for component mounting machine |
CN103398675B (en) * | 2013-08-10 | 2016-06-15 | 南昌航空大学 | A kind of complicated big three-dimensional measurement of objects method based on fringe period correction |
CN103411553B (en) * | 2013-08-13 | 2016-03-02 | 天津大学 | The quick calibrating method of multi-linear structured light vision sensors |
JP6327830B2 (en) * | 2013-10-25 | 2018-05-23 | 株式会社キーエンス | Microscope imaging apparatus, microscope imaging method, and microscope imaging program |
CN103557808B (en) * | 2013-11-19 | 2016-05-25 | 东南大学 | A kind of out-of-focus projection's grating measuring method based on Sierra Lite dither algorithm |
JP6486010B2 (en) * | 2014-03-11 | 2019-03-20 | 国立大学法人 和歌山大学 | Shape measuring apparatus and shape measuring method |
CN103837094B (en) * | 2014-03-11 | 2016-06-15 | 四川大学 | A kind of phase place fusion method reducing video camera Multi-Path Effects |
CN104075669B (en) * | 2014-04-14 | 2017-09-22 | 哈尔滨理工大学 | A kind of fault-tolerant decoding method that photo measure is encoded for complex surface |
CN104390607B (en) * | 2014-11-05 | 2017-04-19 | 南昌航空大学 | Phase encoding-based colorful structured light rapid three-dimensional measurement method |
CN104482877B (en) * | 2014-12-03 | 2017-02-01 | 深圳大学 | Motion compensation method and system in three-dimensional imaging of dynamic object |
JP6038415B1 (en) * | 2015-11-25 | 2016-12-07 | 三菱電機株式会社 | 3D image measuring apparatus and method |
CN105890546A (en) * | 2016-04-22 | 2016-08-24 | 无锡信捷电气股份有限公司 | Structured light three-dimensional measurement method based on orthogonal Gray code and line shift combination |
JP6218893B2 (en) * | 2016-06-29 | 2017-10-25 | 株式会社キーエンス | Measurement microscope apparatus, measurement method and operation program using the same, and computer-readable recording medium |
CN106197270B (en) * | 2016-07-07 | 2018-12-21 | 大连理工大学 | A kind of portable gantry vision measurement device |
CN106482665B (en) * | 2016-09-21 | 2018-05-08 | 大连理工大学 | One kind combination point group high-precision three-dimensional information vision measuring method |
JP6939640B2 (en) | 2018-02-23 | 2021-09-22 | オムロン株式会社 | Image inspection equipment and image inspection method |
CN109186493B (en) * | 2018-04-17 | 2021-02-19 | 苏州佳世达光电有限公司 | Three-dimensional scanning system |
WO2020262389A1 (en) * | 2019-06-28 | 2020-12-30 | キヤノン株式会社 | Measurement apparatus, imaging apparatus, measurement system, control method, and program |
CN110702034A (en) * | 2019-10-25 | 2020-01-17 | 湖北工业大学 | High-light-reflection surface three-dimensional surface shape measuring method, server and system |
Family Cites Families (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2629926B2 (en) * | 1988-12-27 | 1997-07-16 | 日本電気株式会社 | Range image acquisition device |
JP3525964B2 (en) * | 1995-07-05 | 2004-05-10 | 株式会社エフ・エフ・シー | 3D shape measurement method for objects |
JP4077754B2 (en) * | 2003-04-04 | 2008-04-23 | オリンパス株式会社 | 3D shape measuring device |
JP4335024B2 (en) * | 2004-01-27 | 2009-09-30 | オリンパス株式会社 | Three-dimensional shape measuring method and apparatus |
-
2008
- 2008-04-24 JP JP2008113385A patent/JP5055191B2/en active Active
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105547190A (en) * | 2015-12-14 | 2016-05-04 | 深圳先进技术研究院 | Three-dimensional shape measuring method and device based on dual-angle single-frequency fringe projection |
CN105547190B (en) * | 2015-12-14 | 2018-08-14 | 深圳先进技术研究院 | 3 D measuring method and device based on double angle unifrequency fringe projections |
CN105841607A (en) * | 2016-03-16 | 2016-08-10 | 苏州富强科技有限公司 | Three-dimensional vision rotary measurement system based on line structured light |
CN105841606A (en) * | 2016-03-16 | 2016-08-10 | 苏州富强科技有限公司 | Three-dimensional vision measurement device based on line structured light |
Also Published As
Publication number | Publication date |
---|---|
JP2009264862A (en) | 2009-11-12 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5055191B2 (en) | Three-dimensional shape measuring method and apparatus | |
JP5016520B2 (en) | Three-dimensional shape measuring method and apparatus | |
US10346963B2 (en) | Point cloud merging from multiple cameras and sources in three-dimensional profilometry | |
CN101118155B (en) | Method and system for sensing the surface shape of a reflective object | |
JP5576726B2 (en) | Three-dimensional measuring apparatus, three-dimensional measuring method, and program | |
KR102771154B1 (en) | Three-dimensional sensor with counterposed channels | |
Krüger et al. | Accurate chequerboard corner localisation for camera calibration | |
US11640673B2 (en) | Method and system for measuring an object by means of stereoscopy | |
JP2009019941A (en) | Shape measuring method | |
KR20190104367A (en) | 3D shape measuring device, 3D shape measuring method and program | |
CN109544643A (en) | A kind of camera review bearing calibration and device | |
CN114612409A (en) | Projection calibration method and device, storage medium and electronic equipment | |
US20230083039A1 (en) | Method and system for optically measuring an object having a specular and/or partially specular surface and corresponding measuring arrangement | |
JP2011075336A (en) | Three-dimensional shape measuring instrument and method | |
CN107810384B (en) | Stripe projection method, stripe projection apparatus, and computer program product | |
JP2010151842A (en) | Three-dimensional shape measuring instrument and three-dimensional shape measurement method | |
Gdeisat et al. | Simple and accurate empirical absolute volume calibration of a multi-sensor fringe projection system | |
JP2020046229A (en) | Three-dimensional measuring device and three-dimensional measuring method | |
JP2016008837A (en) | Shape measuring method, shape measuring device, structure manufacturing system, structure manufacturing method, and shape measuring program | |
JP2008170282A (en) | Shape measuring device | |
TWI837061B (en) | System and method for 3d profile measurements using color fringe projection techniques | |
JP5457825B2 (en) | 3D shape measuring method and 3D shape measuring apparatus | |
Gruna et al. | On scene-adapted illumination techniques for industrial inspection | |
Okazaki et al. | Shape Reconstruction by Combination of Structured-Light Projection and Photometric Stereo Using a Projector-Camera System: High Quality Reproduction of a Virtual Reflectance Property on a Real Object Surface | |
JP6529247B2 (en) | Calibration system and inspection system |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20101222 |
|
A711 | Notification of change in applicant |
Free format text: JAPANESE INTERMEDIATE CODE: A712 Effective date: 20120111 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20120605 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20120612 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20120703 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20120724 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20120730 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 5055191 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20150803 Year of fee payment: 3 |
|
S111 | Request for change of ownership or part of ownership |
Free format text: JAPANESE INTERMEDIATE CODE: R313113 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
S111 | Request for change of ownership or part of ownership |
Free format text: JAPANESE INTERMEDIATE CODE: R313111 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |