[go: up one dir, main page]

JP7583586B2 - Optical Measuring Device - Google Patents

Optical Measuring Device Download PDF

Info

Publication number
JP7583586B2
JP7583586B2 JP2020193510A JP2020193510A JP7583586B2 JP 7583586 B2 JP7583586 B2 JP 7583586B2 JP 2020193510 A JP2020193510 A JP 2020193510A JP 2020193510 A JP2020193510 A JP 2020193510A JP 7583586 B2 JP7583586 B2 JP 7583586B2
Authority
JP
Japan
Prior art keywords
light
receiving
image
measurement
projecting
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2020193510A
Other languages
Japanese (ja)
Other versions
JP2022082132A (en
Inventor
祐孝 藤本
英人 武井
義久 南川
悠祐 末村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Keyence Corp
Original Assignee
Keyence Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Keyence Corp filed Critical Keyence Corp
Priority to JP2020193510A priority Critical patent/JP7583586B2/en
Publication of JP2022082132A publication Critical patent/JP2022082132A/en
Application granted granted Critical
Publication of JP7583586B2 publication Critical patent/JP7583586B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Length Measuring Devices By Optical Means (AREA)
  • Lenses (AREA)

Description

本発明は、測定領域に測定光を投射して測定対象物を測定する光学測定装置に関する。 The present invention relates to an optical measurement device that projects measurement light onto a measurement area to measure an object to be measured.

例えば、特許文献1には、光源から照射された光を貼り合わせ基板の外周縁越しに画像センサに向けて照射し、基板のエッジの影像を画像センサに投影することで、2枚の基板の位置ずれを検出することが開示されている。画像センサ側には、テレセントリックレンズが設けられており、基板のエッジの影像はテレセントリックレンズを介して画像センサに投影される。 For example, Patent Document 1 discloses that light emitted from a light source is directed toward an image sensor through the outer periphery of the bonded substrates, and an image of the substrate edges is projected onto the image sensor, thereby detecting misalignment between two substrates. A telecentric lens is provided on the image sensor side, and the image of the substrate edges is projected onto the image sensor via the telecentric lens.

特開2012-7898号公報JP 2012-7898 A

ところで、光源から測定領域に測定光を投射してワーク越しでワークの影像を撮像面に結像させる光学測定装置は、光源を収容する投光用筐体と、撮像素子を収容する受光用筐体とを対向するように配置し、投光用筐体の光軸と受光用筐体の光軸とを合わせる必要がある。このとき、例えば共通の位置決め部材に投光用筐体と受光用筐体とを取り付けるようにすれば比較的高精度な光軸合わせが可能になるが、実際に測定を行う現場でそのような位置決め部材を用いることができない場合があり、その場合にはユーザが感覚的に光軸を合わせて使用することが想定される。 Incidentally, optical measuring devices that project measurement light from a light source onto a measurement area and form an image of the workpiece on an imaging surface through the workpiece require that a light-projecting housing that houses the light source and a light-receiving housing that houses an imaging element are arranged opposite each other and that the optical axis of the light-projecting housing and the light-receiving housing are aligned. In this case, for example, if the light-projecting housing and the light-receiving housing are attached to a common positioning member, it becomes possible to align the optical axes with a relatively high degree of accuracy, but there are cases where it is not possible to use such a positioning member at the actual measurement site, in which case it is expected that the user will intuitively align the optical axis.

ところが、ユーザによる感覚的な光軸合わせでは光軸が正確に合わず、その結果、高精度な測定を実現することが困難になる。特に、テレセントリックレンズを使用した光学系を採用していると、テレセントリックレンズにより生成される平行光を測定光として用いるため、わずかな光軸のずれが測定精度に悪影響を与える。また、位置決め部材を用いたとしても、正確な光軸合わせが困難な場合も考えられるので、位置決め部材の有無を問わず、ユーザによる簡単かつ精度のよい光軸合わせを可能にすることが望まれていた。 However, when the user intuitively aligns the optical axis, the optical axis is not aligned accurately, making it difficult to achieve high-precision measurements. In particular, when an optical system using a telecentric lens is used, the parallel light generated by the telecentric lens is used as the measurement light, so even a slight misalignment of the optical axis has a negative effect on measurement accuracy. Furthermore, even if a positioning member is used, there are cases in which accurate alignment of the optical axis is difficult, so it has been desirable to enable users to align the optical axis easily and accurately, regardless of whether a positioning member is used.

本発明は、かかる点に鑑みてなされたものであり、その目的とするところは、光軸を簡単にかつ精度よく合わせることができるようにして高い測定精度が得られるようにすることにある。 The present invention was made in consideration of these points, and its purpose is to make it possible to align the optical axis easily and accurately, thereby achieving high measurement accuracy.

上記目的を達成するために、第1の開示は、測定領域に測定光を投射してワークを測定する光学測定装置を前提とする。光学測定装置は、ワークが配置される測定領域に投射する測定光を生成する光源と、前記光源により生成された測定光が入射され、該測定光を測定領域に向けた平行光に変換する投光側テレセントリックレンズと、前記投光側テレセントリックレンズが取り付けられ、前記投光側テレセントリックレンズから出射された平行光を測定領域へ投射するための投光窓を有する投光用筐体と、測定領域を通過した平行光が入射する受光側テレセントリックレンズと、前記受光側テレセントリックレンズを通過した光を受光する二次元撮像素子と、前記受光側テレセントリックレンズ及び前記二次元撮像素子が取り付けられるとともに、測定領域を通過した平行光を前記受光側テレセントリックレンズへ入射させるための受光窓を有する受光用筐体と、前記投光窓と前記受光窓とが対向して配置されるよう前記投光用筐体と前記受光用筐体とを設置した状態で、前記二次元撮像素子が受光した平行光の光強度分布に基づいて、当該二次元撮像素子の撮像光軸のずれを判定する判定処理部と、前記判定処理部による判定結果を二次元画像を用いて表示する表示部とを備えている。 In order to achieve the above object, the first disclosure is premised on an optical measuring device that projects measuring light onto a measurement area to measure a workpiece. The optical measuring device includes a light source that generates measuring light to be projected onto a measurement area in which a workpiece is placed, a light-projecting telecentric lens that receives the measuring light generated by the light source and converts the measuring light into parallel light directed towards the measurement area, a light-projecting housing to which the light-projecting telecentric lens is attached and that has a light-projecting window for projecting the parallel light emitted from the light-projecting telecentric lens onto the measurement area, a light-receiving telecentric lens into which the parallel light that has passed through the measurement area is incident, and a two-dimensional imaging element that receives the light that has passed through the light-receiving telecentric lens. The device is equipped with a light-receiving housing to which the light-receiving telecentric lens and the two-dimensional image sensor are attached and which has a light-receiving window for allowing the parallel light that has passed through the measurement area to be incident on the light-receiving telecentric lens, a judgment processing unit that judges the deviation of the imaging optical axis of the two-dimensional image sensor based on the light intensity distribution of the parallel light received by the two-dimensional image sensor in a state in which the light-receiving housing and the light-projecting housing are installed so that the light-projecting window and the light-receiving window are arranged opposite each other, and a display unit that displays the judgment result by the judgment processing unit using a two-dimensional image.

この構成によれば、光学測定装置の使用時には、投光窓と受光窓とが対向して配置されるよう投光用筐体と受光用筐体とを設置する。光源で生成された測定光は、まず、投光側テレセントリックレンズに入射して平行光に変換された後、投光窓から測定領域へ投射される。測定領域を通過した平行光は受光窓から受光側テレセントリックレンズに入射して二次元撮像素子で受光される。判定処理部は、二次元撮像素子が受光した平行光の光強度分布に基づいて、当該二次元撮像素子の撮像光軸のずれを判定することができる。例えば、光強度分布において光が全体的に弱い場合には、光軸がずれていることによって二次元撮像素子が正常に受光していないと推定されるので、その場合には、二次元撮像素子の撮像光軸がずれていると判定できる。一方、光強度分布において光が全体的に強い場合には、二次元撮像素子が正常に受光していると推定されるので、その場合には、二次元撮像素子の撮像光軸がずれていないと判定できる。この判定結果は、表示部に二次元画像を用いて表示されるので、ユーザは二次元画像を見ながら二次元撮像素子の撮像光軸のずれを合わすことが可能になる。 According to this configuration, when the optical measuring device is used, the light-projecting housing and the light-receiving housing are installed so that the light-projecting window and the light-receiving window are arranged opposite to each other. The measurement light generated by the light source is first incident on the light-projecting telecentric lens and converted into parallel light, and then projected from the light-projecting window onto the measurement area. The parallel light that passes through the measurement area is incident on the light-receiving telecentric lens from the light-receiving window and received by the two-dimensional image sensor. The determination processing unit can determine the deviation of the imaging optical axis of the two-dimensional image sensor based on the light intensity distribution of the parallel light received by the two-dimensional image sensor. For example, when the light is generally weak in the light intensity distribution, it is estimated that the two-dimensional image sensor is not receiving light normally due to the deviation of the optical axis, and in that case, it can be determined that the imaging optical axis of the two-dimensional image sensor is deviated. On the other hand, when the light is generally strong in the light intensity distribution, it is estimated that the two-dimensional image sensor is receiving light normally, and in that case, it can be determined that the imaging optical axis of the two-dimensional image sensor is not deviated. The result of this determination is displayed on the display unit using a two-dimensional image, allowing the user to adjust the misalignment of the imaging optical axis of the two-dimensional imaging element while viewing the two-dimensional image.

第2の開示では、光学測定装置が、前記二次元撮像素子における光強度分布に基づいて前記二次元画像を生成する画像生成部を備えている。前記画像生成部で生成された前記二次元画像が前記表示部に表示される。この場合、画像生成部で生成される二次元画像は、二次元撮像素子で取得された画像、即ち生画像であってもよい。 In the second disclosure, the optical measurement device includes an image generation unit that generates the two-dimensional image based on the light intensity distribution in the two-dimensional imaging element. The two-dimensional image generated by the image generation unit is displayed on the display unit. In this case, the two-dimensional image generated by the image generation unit may be an image acquired by the two-dimensional imaging element, i.e., a raw image.

第3の開示では、前記画像生成部が、前記二次元撮像素子における光強度分布をグラデーション表示した二次元画像を生成するので、表示部には、光の強弱を示す色の変化が表示されることになり、光軸のずれの大小や、どの方向へ光軸を変化させれば光軸を合わせることができるかといった情報をユーザが取得可能になる。 In the third disclosure, the image generating unit generates a two-dimensional image that displays the light intensity distribution in the two-dimensional imaging element in a gradational manner, so that the display unit displays color changes that indicate the intensity of light, allowing the user to obtain information such as the magnitude of deviation of the optical axis and the direction in which the optical axis should be changed to align it.

第4の開示では、前記画像生成部が、前記二次元撮像素子の光軸のずれを示す第1のインジケータが表示された前記二次元画像を生成するので、ユーザは表示部に表示された第1のインジケータを見ることで、二次元撮像素子の光軸が一致しているか否か、及び一致していない場合にはどの程度一致していないかを把握できる。 In the fourth disclosure, the image generating unit generates the two-dimensional image on which a first indicator showing a deviation in the optical axis of the two-dimensional image sensor is displayed, so that the user can see the first indicator displayed on the display unit to know whether the optical axes of the two-dimensional image sensor are aligned, and if not, to what degree they are not aligned.

第5の開示では、前記判定処理部が、前記二次元撮像素子で取得した画像の重心を算出する。また、前記記画像生成部は、前記判定処理部で算出された画像の重心に前記第1のインジケータを表示させることができる。 In the fifth disclosure, the determination processing unit calculates the center of gravity of the image acquired by the two-dimensional image sensor. The image generating unit can display the first indicator at the center of gravity of the image calculated by the determination processing unit.

第6の開示では、前記画像生成部が、前記二次元撮像素子の光軸の正常範囲を示す第2のインジケータが表示された前記二次元画像を生成するので、二次元撮像素子の光軸が正常範囲からずれている場合に、正常範囲内となるようにずれの修正を誘導できる。 In the sixth disclosure, the image generating unit generates the two-dimensional image on which a second indicator is displayed, which indicates the normal range of the optical axis of the two-dimensional imaging element. Therefore, if the optical axis of the two-dimensional imaging element deviates from the normal range, it is possible to guide the correction of the deviation so that it is within the normal range.

第7の開示では、前記判定処理部が、前記二次元撮像素子で取得した画像の重心が前記第2のインジケータで示されている前記正常範囲外に位置している場合には、前記二次元撮像素子の撮像光軸がずれていると判定する一方、前記二次元撮像素子で取得した画像の重心が前記第2のインジケータで示されている前記正常範囲内に位置している場合には、前記二次元撮像素子の撮像光軸がずれていないと判定する。これにより、判定基準を明確にすることができる。 In the seventh disclosure, the determination processing unit determines that the imaging optical axis of the two-dimensional imaging element is misaligned when the center of gravity of the image acquired by the two-dimensional imaging element is located outside the normal range indicated by the second indicator, and determines that the imaging optical axis of the two-dimensional imaging element is not misaligned when the center of gravity of the image acquired by the two-dimensional imaging element is located within the normal range indicated by the second indicator. This makes it possible to clarify the determination criteria.

第8の開示では、前記画像生成部が、前記二次元撮像素子における光強度分布をX軸方向に投影したX軸プロファイルと、前記二次元撮像素子における光強度分布をY軸方向に投影したY軸プロファイルとを生成する。生成したX軸プロファイルとY軸プロファイルの変化を、第1のインジケータの動きと連動させることができる。 In the eighth disclosure, the image generating unit generates an X-axis profile by projecting the light intensity distribution in the two-dimensional image sensor in the X-axis direction, and a Y-axis profile by projecting the light intensity distribution in the two-dimensional image sensor in the Y-axis direction. Changes in the generated X-axis profile and Y-axis profile can be linked to the movement of the first indicator.

第9の開示では、前記画像生成部が、前記二次元撮像素子の光軸の正常範囲を示す第2のインジケータが重畳表示された前記二次元画像を生成することができる。 In the ninth disclosure, the image generating unit can generate the two-dimensional image on which a second indicator indicating the normal range of the optical axis of the two-dimensional imaging element is superimposed.

第10の開示では、前記画像生成部が、X軸及びY軸をそれぞれ示すX軸表示線及びY軸表示線が重畳表示された前記二次元画像を生成するので、例えば光軸がずれている場合にどの方向にずれているのかをユーザが直感的に判断することができる。よって、ずれ修正が容易になる。 In the tenth disclosure, the image generating unit generates the two-dimensional image in which an X-axis display line and a Y-axis display line indicating the X-axis and the Y-axis, respectively, are superimposed, so that, for example, if the optical axis is misaligned, the user can intuitively determine in which direction it is misaligned. This makes it easier to correct the misalignment.

第11の開示では、前記判定処理部が、前記二次元撮像素子で取得した画像データを2値化処理した後、光強度が0であるとされている画素数をカウントする。前記判定処理部は、得られた画素数が所定数以下である場合には、前記二次元撮像素子の撮像光軸がずれていないと判定する一方、得られた画素数が所定数を超える場合には、前記二次元撮像素子の撮像光軸がずれていると判定する。画素数の判定閾値は、寸法測定の精度を考慮して設定することができる。例えば、寸法測定の精度に殆ど影響を与えない程度の光軸のずれであれば許容できるので、その程度の画素数の判定閾値を予め求めておけばよい。 In the eleventh disclosure, the judgment processing unit performs binarization processing on the image data acquired by the two-dimensional imaging element, and then counts the number of pixels whose light intensity is considered to be 0. If the obtained number of pixels is equal to or less than a predetermined number, the judgment processing unit judges that the imaging optical axis of the two-dimensional imaging element is not misaligned, whereas if the obtained number of pixels exceeds the predetermined number, the judgment processing unit judges that the imaging optical axis of the two-dimensional imaging element is misaligned. The judgment threshold for the number of pixels can be set taking into consideration the accuracy of the dimension measurement. For example, a misalignment of the optical axis that has little effect on the accuracy of the dimension measurement is acceptable, so it is sufficient to determine the judgment threshold for the number of pixels to that extent in advance.

以上説明したように、投光窓と受光窓とが対向して配置されるよう投光用筐体と受光用筐体とを設置した状態で、二次元撮像素子が受光した平行光の光強度分布に基づいて撮像光軸のずれを判定し、その判定結果を二次元画像で表示可能にしたので、光軸を簡単にかつ精度よく合わせることができ、その結果、高い測定精度を得ることができる。 As described above, with the light-projecting housing and the light-receiving housing installed so that the light-projecting window and the light-receiving window are positioned opposite each other, the deviation of the imaging optical axis is determined based on the light intensity distribution of the parallel light received by the two-dimensional imaging element, and the determination result can be displayed as a two-dimensional image. This allows the optical axis to be aligned easily and accurately, resulting in high measurement accuracy.

本発明の実施形態に係る光学測定装置の模式図である。1 is a schematic diagram of an optical measurement device according to an embodiment of the present invention. 投光用ユニット及び受光用ユニットを固定部材に固定して使用する形態を示す斜視図である。11 is a perspective view showing a form in which a light projecting unit and a light receiving unit are fixed to a fixing member for use; FIG. 投光用ユニット及び受光用ユニットを固定部材に固定して使用する形態を示す側面図である。11 is a side view showing a form in which a light projecting unit and a light receiving unit are fixed to a fixing member for use. FIG. 固定部材を使用せずに投光用ユニット及び受光用ユニットを設置する形態を示す斜視図である。11 is a perspective view showing a form in which a light projecting unit and a light receiving unit are installed without using a fixing member; FIG. 固定部材を使用せずに投光用ユニット及び受光用ユニットを設置する形態を示す側面図である。11 is a side view showing a form in which the light projecting unit and the light receiving unit are installed without using a fixing member. FIG. 投光用ユニット及び受光用ユニットを固定部材に固定して使用する場合の光軸に沿った縦断面図である。11 is a vertical cross-sectional view taken along the optical axis when the light projecting unit and the light receiving unit are fixed to a fixing member for use. FIG. 光像の位置や大きさについて説明する図である。4A and 4B are diagrams for explaining the position and size of a light image. 受光用ユニットの縦断面図である。FIG. 2 is a vertical cross-sectional view of the light receiving unit. テレセントリックレンズ及び受光側反射体を外した状態を示す図7相当図である。8 is a view equivalent to FIG. 7, illustrating a state in which the telecentric lens and the light-receiving side reflector are removed. FIG. 受光用筐体への各部材の取付構造の概略を説明する図である。4 is a diagram illustrating an outline of a mounting structure of each component to a light-receiving housing. FIG. 二次元撮像素子が固定された撮像素子ホルダの斜視図である。2 is a perspective view of an imaging element holder to which a two-dimensional imaging element is fixed. FIG. 撮像素子ホルダの分解斜視図である。FIG. 2 is an exploded perspective view of an imaging element holder. 固定部材に固定された投光用ユニット及び受光用ユニットを斜め下方から見た斜視図であり、受光用ユニットの蓋体を開けた状態を示す。11 is a perspective view of the light projecting unit and the light receiving unit fixed to a fixing member, viewed obliquely from below, with the cover of the light receiving unit open; FIG. 固定部材を外し、投光用ユニットの側面を開放した状態を示す図11A相当図である。11B is a view equivalent to FIG. 11A, showing a state in which the fixing member has been removed and the side surface of the light projection unit has been opened. 投光用ユニットの反射体取付部及びその近傍を示す斜視図である。4 is a perspective view showing a reflector mounting portion of the light projection unit and its vicinity. FIG. 受光用ユニットの受光側反射体取付座及びその近傍を示す斜視図である。4 is a perspective view showing a light-receiving side reflector mounting seat of the light-receiving unit and its vicinity. FIG. 受光用ユニットを斜め下方から見た斜視図である。FIG. 2 is a perspective view of the light receiving unit as viewed obliquely from below. 図3におけるXIII-XIII線断面図である。1 is a cross-sectional view taken along line XIII-XIII in FIG. 投光用ユニット及び受光用ユニットを固定部材に固定して使用する場合の底面図である。13 is a bottom view showing a case in which the light projecting unit and the light receiving unit are fixed to a fixing member and used. FIG. 光学測定装置の設定時の処理手順の一例を示すフローチャートである。10 is a flowchart showing an example of a processing procedure when setting the optical measurement device. 設定用ユーザーインターフェース画面の一例を示す図である。FIG. 13 is a diagram illustrating an example of a setting user interface screen. 詳細設定用ユーザーインターフェース画面の一例を示す図である。FIG. 13 is a diagram showing an example of a user interface screen for detailed settings. 測定条件指定用ユーザーインターフェース画面の一例を示す図である。FIG. 13 is a diagram showing an example of a user interface screen for specifying measurement conditions. 公差指定用ユーザーインターフェース画面の一例を示す図である。FIG. 13 is a diagram showing an example of a user interface screen for specifying a tolerance. 光学測定装置の運用時の処理手順の一例を示すフローチャートである。10 is a flowchart showing an example of a processing procedure during operation of the optical measuring device. 運用時のユーザーインターフェース画面の一例を示す図である。FIG. 13 is a diagram illustrating an example of a user interface screen during operation. 現在選択している処理パターンの結果のみ表示したユーザーインターフェース画面の一例を示す図である。FIG. 13 is a diagram showing an example of a user interface screen that displays only the results of a currently selected processing pattern. 現在有効な処理パターンの結果を強調表示したユーザーインターフェース画面の一例を示す図である。FIG. 13 is a diagram showing an example of a user interface screen in which the results of a currently active processing pattern are highlighted. 投光用ユニットから測定領域に投射された測定光を受光用ユニットの二次元撮像素子が受光した時の受光量分布を示す図である。11 is a diagram showing a distribution of the amount of received light when the measurement light projected from the light projecting unit onto a measurement area is received by a two-dimensional image sensor of the light receiving unit. FIG. 光軸判定処理手順の一例を示すフローチャートである。13 is a flowchart illustrating an example of an optical axis determination process procedure. 光軸が一致している場合の光軸調整用ユーザーインターフェース画面の一例を示す図である。FIG. 13 is a diagram showing an example of a user interface screen for adjusting the optical axis when the optical axes are aligned. 光軸が一致していると判定できる範囲内で少しだけずれている場合の光軸調整用ユーザーインターフェース画面の一例を示す図である。FIG. 13 is a diagram showing an example of a user interface screen for adjusting the optical axis when the optical axes are slightly deviated within a range in which they can be determined to be aligned. 光軸が一致していない場合の光軸調整用ユーザーインターフェース画面の一例を示す図である。FIG. 13 is a diagram showing an example of a user interface screen for adjusting the optical axis when the optical axes are not aligned. 光軸が一致しているが異物が写りこんでいる場合の光軸調整用ユーザーインターフェース画面の一例を示す図である。FIG. 13 is a diagram showing an example of a user interface screen for adjusting the optical axis when the optical axes are aligned but a foreign object is captured. 光軸が一致しているが視野がずれている場合の光軸調整用ユーザーインターフェース画面の一例を示す図である。FIG. 13 is a diagram showing an example of a user interface screen for adjusting the optical axis when the optical axes are aligned but the field of view is misaligned.

以下、本発明の実施形態を図面に基づいて詳細に説明する。尚、以下の好ましい実施形態の説明は、本質的に例示に過ぎず、本発明、その適用物或いはその用途を制限することを意図するものではない。 The following describes in detail an embodiment of the present invention with reference to the drawings. Note that the following description of the preferred embodiment is essentially merely an example and is not intended to limit the present invention, its applications, or its uses.

図1は、本発明の実施形態に係る光学測定装置1の概略構成を模式的に示すものである。光学測定装置1は、測定領域Sに測定光を投射して測定対象物であるワークWを測定する装置であり、投光用ユニット10と、受光用ユニット30と、制御装置70と、キーボード80及びマウス81と、表示装置82と、記憶装置83とを備えている。また、制御装置70にはプログラマブルコントローラ90が接続されている。キーボード80及びマウス81は、操作手段の一例であり、例えばタッチパネル式の操作手段等であってもよい。表示装置82は、例えば液晶ディスプレイや有機ELディスプレイ等で構成されている。記憶装置83は、例えばハードディスクドライブやSSD(ソリッドステートドライブ)等で構成されている。プログラマブルコントローラ90は、外部制御機器の一例であり、制御装置70から出力される所定の制御信号を受信し、外部に接続された各種機器を制御する。 FIG. 1 is a schematic diagram showing the general configuration of an optical measuring device 1 according to an embodiment of the present invention. The optical measuring device 1 is a device that projects measuring light onto a measuring area S to measure a workpiece W, which is a measurement target, and includes a light projection unit 10, a light receiving unit 30, a control device 70, a keyboard 80 and a mouse 81, a display device 82, and a storage device 83. A programmable controller 90 is connected to the control device 70. The keyboard 80 and the mouse 81 are examples of operation means, and may be, for example, a touch panel type operation means. The display device 82 is, for example, a liquid crystal display or an organic EL display. The storage device 83 is, for example, a hard disk drive or an SSD (solid state drive). The programmable controller 90 is an example of an external control device, and receives a predetermined control signal output from the control device 70 and controls various devices connected to the outside.

投光用ユニット10は、ワークWが配置される測定領域Sに投射する測定光を生成する光源11と、光源11を保持する光源ホルダ12と、拡散手段13と、投光側反射体14と、投光側テレセントリックレンズ15と、投光用筐体20とを備えている。 The light projection unit 10 includes a light source 11 that generates measurement light to be projected onto the measurement area S in which the workpiece W is placed, a light source holder 12 that holds the light source 11, a diffusion means 13, a light projection side reflector 14, a light projection side telecentric lens 15, and a light projection housing 20.

受光用ユニット30は、二次元撮像素子31と、二次元撮像素子31を保持する撮像素子ホルダ37と、受光レンズ33と、絞り34と、受光側反射体35と、受光側テレセントリックレンズ36と、撮像制御部39と、受光用筐体40とを備えている。撮像制御部39は、受光用ユニット30に設けることができるが、投光用ユニット10に設けられていてもよい。 The light receiving unit 30 includes a two-dimensional image sensor 31, an image sensor holder 37 that holds the two-dimensional image sensor 31, a light receiving lens 33, an aperture 34, a light receiving side reflector 35, a light receiving side telecentric lens 36, an imaging control unit 39, and a light receiving housing 40. The imaging control unit 39 can be provided in the light receiving unit 30, but may also be provided in the light projecting unit 10.

投光用筐体20及び受光用筐体40は高剛性な金属材からなる単一部材で構成されており、各種位置決めの基準となる面や、各部材の取り付けの基準となる面、各部材が接触する面等は切削加工されていて高い精度が確保されている。各種位置決めの基準となる面や、各部材が取り付けの基準となる面、各部材が接触する面等は成型によって形成されてもよい。 The light-projecting housing 20 and the light-receiving housing 40 are constructed from a single member made of a highly rigid metal material, and the surfaces that serve as the reference for various positioning, the surfaces that serve as the reference for mounting each component, the surfaces with which each component comes into contact, etc. are machined to ensure high precision. The surfaces that serve as the reference for various positioning, the surfaces that serve as the reference for mounting each component, the surfaces with which each component comes into contact, etc. may also be formed by molding.

また、制御装置70は、画像取得部71と、DSP72と、CPU73と、メモリ74と、入出力回路75とを備えている。制御装置70は、例えばパーソナルコンピュータ等で構成することができる。画像取得部71で取得された測定画像のデータは、DSP72で信号処理された後、CPU73に出力される。CPU73では、測定画像のエッジを抽出し、抽出されたエッジを用いて寸法測定を実行する。測定画像のエッジ抽出処理は従来から周知の手法を用いることができる。寸法測定としては、例えば2つのエッジ間の距離等である。メモリ74には、RAM及びROMが含まれており、CPU73に所定の機能を実行させるプログラムの記憶や、測定画像、測定結果の一時的な記憶のために利用される部分である。入出力回路75は、測定画像や測定結果、制御信号を外部へ出力するとともに、キーボード80やマウス81の操作状態の入力を受け付ける回路である。測定画像や測定結果は、入出力回路75から記憶装置83に出力することができる。また、制御信号は、入出力回路75からプログラマブルコントローラ90に出力することができる。さらに、測定画像や測定結果は、所定のユーザーインターフェース画面を示すデータとともに表示装置82に出力して表示させることができる。ユーザーインターフェース画面は、CPU73で生成することができる。 The control device 70 also includes an image acquisition unit 71, a DSP 72, a CPU 73, a memory 74, and an input/output circuit 75. The control device 70 can be configured, for example, by a personal computer. The data of the measurement image acquired by the image acquisition unit 71 is signal-processed by the DSP 72 and then output to the CPU 73. The CPU 73 extracts the edges of the measurement image and performs dimensional measurement using the extracted edges. The edge extraction process of the measurement image can use a conventionally known method. The dimensional measurement is, for example, the distance between two edges. The memory 74 includes a RAM and a ROM, and is a part used for storing a program that causes the CPU 73 to execute a predetermined function, and for temporarily storing the measurement image and the measurement result. The input/output circuit 75 is a circuit that outputs the measurement image, the measurement result, and the control signal to the outside, and accepts input of the operation state of the keyboard 80 and the mouse 81. The measurement image and the measurement result can be output from the input/output circuit 75 to the storage device 83. In addition, a control signal can be output from the input/output circuit 75 to the programmable controller 90. Furthermore, the measurement image and the measurement results can be output to the display device 82 together with data showing a predetermined user interface screen for display. The user interface screen can be generated by the CPU 73.

(光学測定装置1の使用形態)
図2及び図3は、投光用ユニット10及び受光用ユニット30を共通の固定部材60に固定して使用する形態である。固定部材60は、光学測定装置1の一部を構成する部材であり、所定方向に長い金属製の板材で構成され、高い剛性を持っている。固定部材60の長手方向一側に投光用ユニット10を取り付け、固定部材60の長手方向他側に受光用ユニット30を取り付けて使用する。固定部材60の形状は、図示した形状に限られるものではなく、例えば中空状の部材であってもよい。
(Use of the optical measuring device 1)
2 and 3 show a configuration in which the light projecting unit 10 and the light receiving unit 30 are fixed to a common fixing member 60 for use. The fixing member 60 is a member that constitutes part of the optical measurement device 1, is made of a metal plate that is long in a predetermined direction, and has high rigidity. The light projecting unit 10 is attached to one side of the fixing member 60 in the longitudinal direction, and the light receiving unit 30 is attached to the other side of the fixing member 60 in the longitudinal direction for use. The shape of the fixing member 60 is not limited to the shape shown in the figures, and may be, for example, a hollow member.

一方、図3及び図5は、投光用ユニット10及び受光用ユニット30を固定部材60に固定せずに使用する形態である。この形態では、投光用ユニット10及び受光用ユニット30を、測定を行う現場にある各種部材(図示せず)に固定して使用する。 On the other hand, Figures 3 and 5 show a configuration in which the light projecting unit 10 and the light receiving unit 30 are used without being fixed to the fixing member 60. In this configuration, the light projecting unit 10 and the light receiving unit 30 are used by being fixed to various members (not shown) at the site where the measurement is performed.

どちらの使用形態も、投光用ユニット10と受光用ユニット30との間に測定領域Sが形成される。また、投光用ユニット10と受光用ユニット30との距離(ワーキングディスタンス)は予め設定された距離以内とされている。 In either usage form, a measurement area S is formed between the light projecting unit 10 and the light receiving unit 30. In addition, the distance (working distance) between the light projecting unit 10 and the light receiving unit 30 is set within a preset distance.

また、この実施形態の説明では、図3や図5に示すように、投光用ユニット10と受光用ユニット30とが水平方向に離れていて、両ユニット10、30の光軸が水平方向に延び、かつ互いに一致する場合について説明するが、光軸が斜めに延びるように両ユニット10、30を配置してもよいし、光軸が上下方向に延びるように両ユニット10、30を配置してもよい。つまり、両ユニット10、30を互いに向き合わせたとき斜め方向や上下方向となるように配置してもよい。 In addition, in the description of this embodiment, as shown in Figures 3 and 5, the light-projecting unit 10 and the light-receiving unit 30 are separated horizontally and the optical axes of both units 10, 30 extend horizontally and coincide with each other, but both units 10, 30 may be arranged so that the optical axes extend diagonally, or so that the optical axes extend vertically. In other words, both units 10, 30 may be arranged so that they are diagonal or vertical when facing each other.

(投光用ユニット10の構成)
図6Aにも示すように、投光用ユニット10の光源11は、例えばInGaNグリーンLED等の発光ダイオード等で構成されており、基板11aに実装されている。基板11aにはマイクロコンピュータ等からなる撮像制御部39(図1に示す)が接続されており、この撮像制御部39により、光源11が制御される。例えば撮像の間隔が数ミリ秒~数十ミリ秒であって各撮像における露光時間が1ミリ秒以下である場合、撮像の間隔や露光時間に応じて、撮像制御部39により、光源11がパルス点灯制御される。各撮像における露光時間を例えば100マイクロ秒とすることで、光学測定装置1は高速搬送ワークも止めずに測定可能となり、撮像の間隔や露光時間に応じて光源11がパルス点灯制御されることで、光源11における発熱を抑制することができる。
(Configuration of light projection unit 10)
As shown in FIG. 6A, the light source 11 of the light projection unit 10 is composed of a light emitting diode such as an InGaN green LED, and is mounted on a substrate 11a. An imaging control unit 39 (shown in FIG. 1) consisting of a microcomputer or the like is connected to the substrate 11a, and the light source 11 is controlled by the imaging control unit 39. For example, when the imaging interval is several milliseconds to several tens of milliseconds and the exposure time in each imaging is 1 millisecond or less, the imaging control unit 39 controls the light source 11 to be pulsed on according to the imaging interval and the exposure time. By setting the exposure time in each imaging to, for example, 100 microseconds, the optical measuring device 1 can measure a workpiece transported at high speed without stopping it, and the light source 11 is controlled to be pulsed on according to the imaging interval and the exposure time, so that heat generation in the light source 11 can be suppressed.

基板11aは、光源ホルダ12に固定されている。基板11aを光源ホルダ12に固定することで、光源11を光源ホルダ12に保持することができる。基板11aは、光源ホルダ12の下部に固定されており、その上に光源11が配置され、光源11は上方へ向けて光を投射する姿勢となっている。基板11aは、光源ホルダ12に対して位置調整可能に取り付けられている。 The substrate 11a is fixed to the light source holder 12. By fixing the substrate 11a to the light source holder 12, the light source 11 can be held in the light source holder 12. The substrate 11a is fixed to the lower part of the light source holder 12, and the light source 11 is disposed on the substrate 11a so that the light source 11 projects light upward. The substrate 11a is attached to the light source holder 12 so that its position can be adjusted.

光源ホルダ12には、平行光が得られるように収差補正されたコリメートレンズ12aと、光拡散ユニット12bと、2つの投光レンズ12cとが設けられている。投光レンズ12cは1つであってもよい。コリメートレンズ12aは、光源11の上方に位置しており、光源11の光がコリメートレンズ12aに直接入射するようになっている。コリメートレンズ12aに入射した光は、平行光に変換されて上方へ出射する。コリメートレンズ12aの光出射面の上方には、光拡散ユニット12bが位置している。光拡散ユニット12bは入射した光を拡散させるための部材であり、光拡散ユニット12bに入射した光は、光拡散ユニット12bを通過することで、拡散されて上方へ出射する。コリメートレンズ12aから入射した平行光は、光拡散ユニット12bにおいて円形の光像を形成する。光拡散ユニット12bを通過した平行光は、光像の各点において平行成分をピークとする角度特性の拡散光として光拡散ユニット12bから出射される。2つの投光レンズ12cは、光拡散ユニット12bの光出射面の上方に位置している。光拡散ユニット12bから出射した光は、2つの投光レンズ12cを通過して上方へ出射する。2つの投光レンズ12cは、光拡散ユニット12bから出射した光の広がり角を調整する。光拡散ユニット12bから出射した光の広がり角を狭い角度に調整することで、投光側テレセントリックレンズ15を通過する光の光密度を高めることができる。また、投光レンズ12cを通過した光は、スリット12dを通過するが、スリット12d近傍の各位置において、光量の総和や角度分布が全て均質になる。これにより、影像の境界の状態が場所によって変わらず、測定精度を高めることができる。 The light source holder 12 is provided with a collimator lens 12a, which is aberration-corrected to obtain parallel light, a light diffusion unit 12b, and two light projection lenses 12c. There may be only one light projection lens 12c. The collimator lens 12a is located above the light source 11, so that the light from the light source 11 is directly incident on the collimator lens 12a. The light incident on the collimator lens 12a is converted into parallel light and emitted upward. The light diffusion unit 12b is located above the light emission surface of the collimator lens 12a. The light diffusion unit 12b is a member for diffusing the incident light, and the light incident on the light diffusion unit 12b is diffused by passing through the light diffusion unit 12b and emitted upward. The parallel light incident from the collimator lens 12a forms a circular light image in the light diffusion unit 12b. The parallel light that passes through the light diffusion unit 12b is emitted from the light diffusion unit 12b as diffused light with angular characteristics in which the parallel component peaks at each point of the light image. The two light projecting lenses 12c are located above the light emission surface of the light diffusion unit 12b. The light emitted from the light diffusion unit 12b passes through the two light projecting lenses 12c and is emitted upward. The two light projecting lenses 12c adjust the spread angle of the light emitted from the light diffusion unit 12b. By adjusting the spread angle of the light emitted from the light diffusion unit 12b to a narrow angle, the light density of the light passing through the light-projecting telecentric lens 15 can be increased. In addition, the light that passes through the light projecting lens 12c passes through the slit 12d, but the total amount of light and the angular distribution are all homogenous at each position near the slit 12d. As a result, the state of the boundary of the image does not change depending on the location, and the measurement accuracy can be improved.

光源11、コリメートレンズ12a、光拡散ユニット12b及び2つの投光レンズ12cは、光源ホルダ12に固定されて相対変位が不能になっている。この状態で、光源11の中心を通って当該光源11の光放射面に垂直な線上に、コリメートレンズ12a、光拡散ユニット12b及び2つの投光レンズ12cの光軸が位置するように、コリメートレンズ12a、光拡散ユニット12b及び2つの投光レンズ12cが配置されている。 The light source 11, collimator lens 12a, light diffusion unit 12b, and two projection lenses 12c are fixed to the light source holder 12 and cannot be displaced relative to one another. In this state, the collimator lens 12a, light diffusion unit 12b, and two projection lenses 12c are arranged so that their optical axes are positioned on a line that passes through the center of the light source 11 and is perpendicular to the light emission surface of the light source 11.

光源ホルダ12は、投光用筐体20の内部に収容された状態で当該投光用筐体20に取り付けられている。光源ホルダ12を投光用筐体20に取り付ける際には、ねじ16による締結構造を用いることができる。光源ホルダ12には、ねじ16が挿通する挿通孔(図示せず)が形成されており、この挿通孔を長穴に形成することで、光源ホルダ12の位置調整を行うことが可能になる。投光用筐体20の底部にはアクセス用の開口20dが形成されており、光源11や光源ホルダ12の位置調整を行う際にアクセスが容易になる。蓋体20eはアクセス用の開口20dを閉塞する。 The light source holder 12 is attached to the light projection housing 20 while being housed inside the light projection housing 20. When attaching the light source holder 12 to the light projection housing 20, a fastening structure using screws 16 can be used. The light source holder 12 is formed with an insertion hole (not shown) through which the screw 16 passes, and forming this insertion hole into an elongated hole makes it possible to adjust the position of the light source holder 12. An access opening 20d is formed in the bottom of the light projection housing 20, making it easy to access when adjusting the position of the light source 11 and the light source holder 12. The lid 20e closes the access opening 20d.

投光用筐体20は、受光用筐体40と対向する面が前面であり、前面は上下方向にのびている。投光用筐体20の後面は、受光用筐体40と対向する面と反対に位置する面であり、この後面は、上端に近づくほど前に位置するように傾斜しており、この傾斜角度は、後述する投光側反射体14の設置角度と対応している。後面の下側からは受光用ユニット30と接続される信号ケーブルC(図2等に示す)が外部へ出ている。また、投光用筐体20の両側面は互いに平行に上下方向に延びている。投光用筐体20の下面は、固定部材60への取付面となっている。 The surface of the light-projecting housing 20 that faces the light-receiving housing 40 is its front surface, which extends vertically. The rear surface of the light-projecting housing 20 is the surface located opposite the surface that faces the light-receiving housing 40, and this rear surface is inclined so that it is positioned further forward as it approaches the upper end, and this inclination angle corresponds to the installation angle of the light-projecting side reflector 14, which will be described later. A signal cable C (shown in FIG. 2, etc.) that connects to the light-receiving unit 30 extends to the outside from the lower side of the rear surface. In addition, both side surfaces of the light-projecting housing 20 extend vertically parallel to each other. The lower surface of the light-projecting housing 20 serves as the mounting surface for the fixing member 60.

投光用筐体20の内部には、投光レンズ12cから出射した光を反射する投光側反射体14が収容されている。この投光側反射体14は、例えば平板状のミラー等で構成されている。投光用筐体20の内部における上側部分には、投光側反射体14を取り付けるための複数の反射体取付部21が互いに間隔をあけて設けられている。反射体取付部21は、投光用筐体20の内面から突出しており、突出方向先端部には、反射体取付部21の裏面が当接する当接面21aが形成されている(図11C参照)。反射体取付部21は、投光用筐体20の一方の側面から他方の側面に亘って突出することで、投光用筐体20の内面を補強してもよい。各当接面21aに投光側反射体14の裏面を当接させた状態で、投光側反射体14を投光用筐体20に対して高精度に位置決めすることができる。すなわち、投光用筐体20に一体成形された反射体取付部21の当接面21aに投光側反射体14を直接当接させることで、投光用筐体20と反射体取付部21との間に別部材が介在しないので、投光用筐体20の成形精度と同程度の高い精度で投光側反射体14を位置決めできる。投光側反射体14は、反射体取付部21に対して接着剤によって接着してもよいし、ねじ等の締結部材で締結してもよい。 The light-projecting housing 20 contains a light-projecting reflector 14 that reflects the light emitted from the light-projecting lens 12c. The light-projecting reflector 14 is, for example, a flat mirror. In the upper part of the interior of the light-projecting housing 20, a plurality of reflector attachment parts 21 for attaching the light-projecting reflector 14 are provided at intervals from each other. The reflector attachment parts 21 protrude from the inner surface of the light-projecting housing 20, and at the tip of the protruding direction, a contact surface 21a against which the back surface of the reflector attachment part 21 abuts is formed (see FIG. 11C). The reflector attachment part 21 may protrude from one side surface of the light-projecting housing 20 to the other side surface, thereby reinforcing the inner surface of the light-projecting housing 20. With the back surface of the light-projecting reflector 14 abutting against each abutment surface 21a, the light-projecting reflector 14 can be positioned with high precision relative to the light-projecting housing 20. That is, by directly abutting the light-projecting reflector 14 against the abutment surface 21a of the reflector attachment portion 21 that is integrally molded with the light-projecting housing 20, no separate member is interposed between the light-projecting housing 20 and the reflector attachment portion 21, so that the light-projecting reflector 14 can be positioned with high accuracy equivalent to the molding accuracy of the light-projecting housing 20. The light-projecting reflector 14 may be bonded to the reflector attachment portion 21 with an adhesive, or may be fastened with a fastening member such as a screw.

投光側反射体14は、光源ホルダ12の投光レンズ12cから出射した光が当該投光側反射体14の中央部に向けて入射するように配置されている。投光側反射体14の角度は、投光レンズ12cから入射した光を水平方向に出射するように設定されている。投光側反射体14は、光路を折りたたむことで投光用筐体20のサイズを小型化するものであり、投光用筐体20のサイズを許容するのであれば必ずしも必要ではない。 The light-projecting side reflector 14 is positioned so that the light emitted from the light-projecting lens 12c of the light source holder 12 is incident on the center of the light-projecting side reflector 14. The angle of the light-projecting side reflector 14 is set so that the light incident from the light-projecting lens 12c is emitted horizontally. The light-projecting side reflector 14 reduces the size of the light-projecting housing 20 by folding the optical path, and is not necessarily required if the size of the light-projecting housing 20 is acceptable.

投光側テレセントリックレンズ15は、投光用筐体20における受光側筐体40と対向する側に取り付けられている。投光用筐体20における受光側筐体40と対向する側の壁部には、投光側テレセントリックレンズ15が嵌め込まれる投光側レンズ取付孔22が当該壁部を貫通するように形成されている。投光側レンズ取付孔22の奥側の内周面には、径方向内方へ突出するとともに、周方向に延びる突出部で構成された投光側レンズ取付座(第3の座)22aが一体成形されている。この投光側レンズ取付座22aに投光側テレセントリックレンズ15の奥側(光入射側)の端面の周縁部が当接することにより、投光側テレセントリックレンズ15が投光用筐体20に対して位置決めされる。投光側テレセントリックレンズ15も投光側レンズ取付座22aに直接当接させることで、投光用筐体20と投光側テレセントリックレンズ15との間に別部材が介在しないので、投光用筐体20の成形精度と同程度の高い精度で投光側テレセントリックレンズ15を位置決めできる。 The light-emitter telecentric lens 15 is attached to the side of the light-emitter housing 20 facing the light-receiving housing 40. A light-emitter lens mounting hole 22 into which the light-emitter telecentric lens 15 is fitted is formed so as to penetrate the wall of the light-emitter housing 20 facing the light-receiving housing 40. A light-emitter lens mounting seat (third seat) 22a is integrally formed on the inner peripheral surface of the rear side of the light-emitter lens mounting hole 22, which protrudes radially inward and is composed of a protrusion extending in the circumferential direction. The peripheral portion of the end face of the rear side (light incident side) of the light-emitter telecentric lens 15 abuts against this light-emitter lens mounting seat 22a, thereby positioning the light-emitter telecentric lens 15 with respect to the light-emitter housing 20. The light-emitter telecentric lens 15 is also directly abutted against the light-emitter lens mounting seat 22a, so there is no separate member between the light-emitter housing 20 and the light-emitter telecentric lens 15, and the light-emitter telecentric lens 15 can be positioned with high accuracy equivalent to the molding accuracy of the light-emitter housing 20.

投光側テレセントリックレンズ15は、光軸が水平となるように配置されている。投光側反射体14から出射した光は、投光側テレセントリックレンズ15に入射すると、投光側テレセントリックレンズ15が測定領域Sに向けた平行光に変換して出射する。測定領域Sにおいて投光側テレセントリックレンズ15により形成される光像は、投光側テレセントリックレンズ15の光軸に沿ってその大きさが一定となる。投光側テレセントリックレンズ15は、投光用筐体20内に形成された光像を測定領域S内にピントのあった光像として結像させる。測定領域Sのいずれの位置においてもピントのあった光像が形成されることが好ましい。ピントのあった光像は、投光側テレセントリックレンズ15の光軸に沿って所定の範囲に形成されるが、これは投光用筐体20内に形成された光像から投光側テレセントリックレンズ15までの光路長に応じており、光路長が長いほど光像のピントのあう範囲は広くなる。例えば高精度な測定をするための測定領域が大きい光学測定装置1の場合、投光用筐体20内に形成された光像から投光側テレセントリックレンズ15までの光路長は長いため、投光側反射体14により光路を折りたたむことで投光用筐体20のサイズを小型化するようにしてもよい。 The light-projecting telecentric lens 15 is arranged so that its optical axis is horizontal. When the light emitted from the light-projecting reflector 14 enters the light-projecting telecentric lens 15, the light-projecting telecentric lens 15 converts the light into parallel light toward the measurement area S and emits it. The size of the light image formed by the light-projecting telecentric lens 15 in the measurement area S is constant along the optical axis of the light-projecting telecentric lens 15. The light-projecting telecentric lens 15 focuses the light image formed in the light-projecting housing 20 as a focused light image in the measurement area S. It is preferable that a focused light image is formed at any position in the measurement area S. The focused light image is formed in a predetermined range along the optical axis of the light-projecting telecentric lens 15, which depends on the optical path length from the light image formed in the light-projecting housing 20 to the light-projecting telecentric lens 15, and the longer the optical path length, the wider the range in which the light image is in focus. For example, in the case of an optical measurement device 1 with a large measurement area for performing high-precision measurements, the optical path length from the optical image formed in the light-projecting housing 20 to the light-projecting side telecentric lens 15 is long, so the size of the light-projecting housing 20 may be reduced by folding the optical path with the light-projecting side reflector 14.

コリメートレンズ12aから平行光が入射されて光拡散ユニット12bにおいて円形の光像を形成する場合、光拡散ユニット12bを通過した平行光は、光像の各点において平行成分をピークとする角度特性の拡散光として光拡散ユニット12bから出射される。このような角度特性を有する光像を、投光側テレセントリックレンズ15を介して測定領域Sに照射することで、場所や角度によらず光が略均一な照明光を実現することができる。また、2つの投光レンズ12cにより、光拡散ユニット12bから出射した光の広がり角を狭い角度に調整することで、投光側テレセントリックレンズ15を通過する光の光密度を高めるようにしてもよい。 When parallel light is incident from the collimator lens 12a and forms a circular light image in the light diffusion unit 12b, the parallel light that passes through the light diffusion unit 12b is emitted from the light diffusion unit 12b as diffused light with angular characteristics in which the parallel component peaks at each point of the light image. By irradiating the measurement area S with such an angular characteristic via the light projection telecentric lens 15, it is possible to realize illumination light with approximately uniform light regardless of location or angle. In addition, the light density of the light passing through the light projection telecentric lens 15 may be increased by adjusting the spread angle of the light emitted from the light diffusion unit 12b to a narrow angle using the two light projection lenses 12c.

投光用筐体20には、投光側テレセントリックレンズ15から出射された平行光を測定領域Sへ投射するための投光窓23が設けられている。投光窓23は、投光側テレセントリックレンズ15の光出射面を覆うように形成された略円形の投光側カバーガラス23aと、投光側カバーガラス23aが取り付けられた投光側枠体23bとを有している。投光側枠体23bは、投光側レンズ取付孔22における投光側テレセントリックレンズ15の光出射面側に嵌め込まれて投光用筐体20に固定されている。投光側テレセントリックレンズ15の光出射面と、投光側枠体23bとの間には、投光側弾性材23cが配設されている。投光側弾性材23cは、例えばゴムや弾性を有する金属材等で構成されている。投光側弾性材23cにより、投光側テレセントリックレンズ15が投光側レンズ取付座22aに常時押し付けられるように付勢されている。投光側枠体23bは、投光側レンズ取付孔22における投光側テレセントリックレンズ15の光出射面側にねじ止めにより投光用筐体20に固定され、投光側弾性材23cにより、投光側テレセントリックレンズ15が投光側レンズ取付座22aに押圧固定されてもよい。 The light-projecting housing 20 is provided with a light-projecting window 23 for projecting the parallel light emitted from the light-projecting telecentric lens 15 to the measurement area S. The light-projecting window 23 has a substantially circular light-projecting cover glass 23a formed to cover the light-emitting surface of the light-projecting telecentric lens 15, and a light-projecting frame body 23b to which the light-projecting cover glass 23a is attached. The light-projecting frame body 23b is fitted into the light-emitting surface side of the light-projecting telecentric lens 15 in the light-projecting lens mounting hole 22 and fixed to the light-projecting housing 20. A light-projecting elastic material 23c is disposed between the light-emitting surface of the light-projecting telecentric lens 15 and the light-projecting frame body 23b. The light-projecting elastic material 23c is made of, for example, rubber or a metal material having elasticity. The light-emitter side elastic material 23c biases the light-emitter side telecentric lens 15 so that it is constantly pressed against the light-emitter side lens mounting seat 22a. The light-emitter side frame 23b is fixed to the light-emitter housing 20 by screwing to the light-emission surface side of the light-emitter side telecentric lens 15 in the light-emitter side lens mounting hole 22, and the light-emitter side elastic material 23c may press and fix the light-emitter side telecentric lens 15 to the light-emitter side lens mounting seat 22a.

図3に示すように、投光用筐体20の側面(外面)には、当該投光用筐体20を設置する時の基準となる複数の側方基準面20a(図3では3か所)が設けられている。側方基準面20aは、貫通孔20bの円形縁で構成されており、互いに同一平面上に位置する高精度な面である。投光用筐体20を設置する部材に側方基準面20aを当接させることで、投光用筐体20を高精度に位置決めすることができる。この実施形態では、側方基準面20aの中央部に貫通孔20bが形成されている。投光用筐体20のもう一方の側面(外面)にも同様に側方基準面が設けられていてもよい。 As shown in FIG. 3, the side surface (outer surface) of the light-projecting housing 20 is provided with multiple lateral reference surfaces 20a (three in FIG. 3) that serve as references when installing the light-projecting housing 20. The lateral reference surfaces 20a are formed by the circular edges of the through holes 20b, and are highly accurate surfaces that are located on the same plane as one another. The light-projecting housing 20 can be positioned with high accuracy by abutting the lateral reference surfaces 20a against the member on which the light-projecting housing 20 is installed. In this embodiment, a through hole 20b is formed in the center of the lateral reference surface 20a. A similar lateral reference surface may be provided on the other side surface (outer surface) of the light-projecting housing 20.

また、投光用筐体20の底面(外面)には、当該投光用筐体20を設置する時の基準となる複数の底部基準面20cが設けられている(図11B参照)。底部基準面20cは、他の部分と比べて僅かに盛り上がった平面(凸面)で構成されており、互いに同一平面上に位置する高精度な面である。この実施形態では、底部基準面20cに、固定部材20を固定するためのねじ穴101が形成されている。投光用筐体20を設置する部材に底部基準面20cを当接させることで、投光用筐体20を高精度に位置決めすることができる。投光用筐体20を設置する際には、側方基準面20aと底部基準面20cのどちらを基準にしてもよい。側方基準面20aと底部基準面20cとは他の面よりも突出することで、平面形状の被取付面に当接させることができる。側方基準面20aを基準に設置する場合は、被取付面に側方基準面20aを当接させて、各側方基準面20aの貫通孔20bに取付用のボルトを貫通させて被取付面に投光用筐体20を固定する。底部基準面20cを基準に設置する場合は、被取付面に底部基準面20cを当接させて、各底部基準面20cのねじ穴101に取付用のねじを螺合させて被取付面に投光用筐体20を固定する。例えば、各底部基準面20cは、固定部材60の上面と当接した状態でねじ穴101に取付用のねじを螺合されて、固定部材60に固定される。 In addition, the bottom surface (outer surface) of the light-projecting housing 20 is provided with a plurality of bottom reference surfaces 20c that serve as a reference when the light-projecting housing 20 is installed (see FIG. 11B). The bottom reference surface 20c is composed of a plane (convex surface) that is slightly raised compared to other parts, and is a highly accurate surface that is located on the same plane as each other. In this embodiment, a screw hole 101 for fixing the fixing member 20 is formed in the bottom reference surface 20c. The light-projecting housing 20 can be positioned with high accuracy by abutting the bottom reference surface 20c against the member on which the light-projecting housing 20 is installed. When the light-projecting housing 20 is installed, either the side reference surface 20a or the bottom reference surface 20c may be used as a reference. The side reference surface 20a and the bottom reference surface 20c can be abutted against a flat mounting surface by protruding from other surfaces. When the side reference surface 20a is used as a reference, the side reference surface 20a is abutted against the mounting surface, and mounting bolts are inserted through the through holes 20b of each side reference surface 20a to fix the light projection housing 20 to the mounting surface. When the bottom reference surface 20c is used as a reference, the bottom reference surface 20c is abutted against the mounting surface, and mounting screws are screwed into the screw holes 101 of each bottom reference surface 20c to fix the light projection housing 20 to the mounting surface. For example, each bottom reference surface 20c is fixed to the fixing member 60 by screwing mounting screws into the screw holes 101 while abutting against the upper surface of the fixing member 60.

また、図2に示すように、投光用筐体20の前面である受光用ユニット30と対向する面には、ワーキングディスタンス基準面20fが設けられている。 As shown in FIG. 2, a working distance reference surface 20f is provided on the front surface of the light-projecting housing 20, which faces the light-receiving unit 30.

投光用筐体20は一側面が開口した箱形状を有しており、箱形状の側面及び/又は底面に被取付面に当接するための基準面が形成されている。箱形状の前面及び/又は背面には、測定光の光路を決定する反射体及びレンズ等の光学素子を位置決めする座が形成されている。座は、一方側面から他方の側面に延びで形成され、箱形状の前面及び/又は背面の剛性をより強固なものにしている。例えば、箱形状の前面には、投光側テレセントリックレンズ15を直接位置決めし、固定的に取り付けるための座が形成され、箱形状の背面(内部)には、投光側反射体14を直接位置決めし、固定的に取り付けるための座が形成され、箱形状の閉塞した側面には光源ホルダ12が位置調整可能に取り付けられる。これにより基準面に対して高精度な測定光を照明することができる。なお、箱形状の底面には光源11や光源ホルダ12にアクセスするためのアクセス用の開口20dが形成されてもよい。 The light projection housing 20 has a box shape with one side open, and a reference surface for abutting against the mounting surface is formed on the side and/or bottom of the box shape. A seat for positioning optical elements such as a reflector and a lens that determine the optical path of the measurement light is formed on the front and/or back of the box shape. The seat is formed by extending from one side to the other side, making the rigidity of the front and/or back of the box shape stronger. For example, a seat for directly positioning and fixedly mounting the light projection telecentric lens 15 is formed on the front of the box shape, a seat for directly positioning and fixedly mounting the light projection side reflector 14 is formed on the back (inside) of the box shape, and the light source holder 12 is attached to the closed side of the box shape so that the position can be adjusted. This allows high-precision measurement light to be illuminated against the reference surface. In addition, an access opening 20d for accessing the light source 11 and the light source holder 12 may be formed on the bottom of the box shape.

(受光用ユニット30の構成)
受光用ユニット30の二次元撮像素子31は、例えばCMOSイメージセンサー等で構成されていて、画素がX方向とY方向の二次元に配列されている。二次元撮像素子31は、基板31aに実装されている。基板31aには、撮像制御部39(図1に示す)が設けられている。撮像制御部39によって二次元撮像素子31が制御される。例えば撮像の間隔が数ミリ秒~数十ミリ秒であって各撮像における露光時間が100マイクロ秒となるように撮像制御部39によって二次元撮像素子31が制御される。露光時間が1ミリ秒以下、例えば100マイクロ秒とすることで、光学測定装置1は高速搬送ワークも止めずに測定可能となる。露光時間は、光源11のパルス点灯制御と二次元撮像素子31のシャッター制御とを同期制御して実現されてもよい。基板31aは、撮像素子ホルダ37に固定されている。基板31aを撮像素子ホルダ37に固定することで、二次元撮像素子31を撮像素子ホルダ37に保持することができる。
(Configuration of the light receiving unit 30)
The two-dimensional image sensor 31 of the light receiving unit 30 is composed of, for example, a CMOS image sensor, and pixels are arranged two-dimensionally in the X and Y directions. The two-dimensional image sensor 31 is mounted on a substrate 31a. The substrate 31a is provided with an image sensor control unit 39 (shown in FIG. 1). The two-dimensional image sensor 31 is controlled by the image sensor control unit 39. For example, the two-dimensional image sensor 31 is controlled by the image sensor control unit 39 so that the image sensor interval is several milliseconds to several tens of milliseconds and the exposure time for each image sensor is 100 microseconds. By setting the exposure time to 1 millisecond or less, for example, 100 microseconds, the optical measuring device 1 can measure a workpiece transported at high speed without stopping it. The exposure time may be realized by synchronously controlling the pulse lighting control of the light source 11 and the shutter control of the two-dimensional image sensor 31. The substrate 31a is fixed to an image sensor holder 37. By fixing the substrate 31a to the image sensor holder 37, the two-dimensional image sensor 31 can be held by the image sensor holder 37.

撮像素子ホルダ37には、受光側レンズユニット38が固定されている。図7に示すように、受光側レンズユニット38には、全体として筒状をなしており、その内部に複数の受光レンズ(結像レンズ)33が設けられている。受光レンズ33の光軸は斜め方向に延びており、その受光レンズ33の光軸の延長線が二次元撮像素子31の中央部に対して垂直に交わるように、受光側レンズユニット38と二次元撮像素子31との相対的な位置関係が設定されている。受光側レンズユニット38の上部には、絞り34が設けられている。 A light-receiving lens unit 38 is fixed to the image sensor holder 37. As shown in FIG. 7, the light-receiving lens unit 38 is generally cylindrical, and has multiple light-receiving lenses (imaging lenses) 33 provided therein. The optical axis of the light-receiving lenses 33 extends in an oblique direction, and the relative positional relationship between the light-receiving lens unit 38 and the two-dimensional image sensor 31 is set so that the extension line of the optical axis of the light-receiving lenses 33 intersects perpendicularly with the center of the two-dimensional image sensor 31. An aperture 34 is provided on the upper part of the light-receiving lens unit 38.

絞り34は、受光側テレセントリックレンズ36介して受光した平行な光を通過させ、平行な光以外の外乱光を阻止する。これにより外乱光の影響を低減することができる。受光レンズ33は、像側テレセントリックレンズであってもよい。像側テレセントリックレンズにより、受光レンズ33と二次元撮像素子31との間の距離が変化しても、二次元撮像素子31上に結像される像の大きさは変化しない。例えば撮像素子ホルダ37が熱膨張することで受光レンズ33と二次元撮像素子31との間の距離が変化しても、二次元撮像素子31上に結像される像の大きさは変化しないため温度変化の影響を低減することができる。投光側テレセントリックレンズ15を物体側テレセントリックレンズとし、受光レンズ33を像側テレセントリックレンズとすることで、両側テレセントリックの光学系とすることができる。 The aperture 34 passes the parallel light received through the light-receiving telecentric lens 36 and blocks disturbance light other than parallel light. This reduces the effect of disturbance light. The light-receiving lens 33 may be an image-side telecentric lens. With an image-side telecentric lens, the size of the image formed on the two-dimensional image sensor 31 does not change even if the distance between the light-receiving lens 33 and the two-dimensional image sensor 31 changes. For example, even if the distance between the light-receiving lens 33 and the two-dimensional image sensor 31 changes due to thermal expansion of the image sensor holder 37, the size of the image formed on the two-dimensional image sensor 31 does not change, so the effect of temperature change can be reduced. By making the light-projecting telecentric lens 15 an object-side telecentric lens and the light-receiving lens 33 an image-side telecentric lens, a double-telecentric optical system can be obtained.

撮像素子ホルダ37は二次元撮像素子31が固定された状態、即ち、二次元撮像素子31、受光レンズ33及び絞り34の位置関係が一定に保たれた状態で、受光用筐体40に取り付けられる。図11Aに示すように、受光用筐体40の一方の側壁には、二次元撮像素子31を保持した状態の撮像素子ホルダ37を当該受光用筐体40内に入れるための導入用開口41が形成されている。導入用開口41は、受光用筐体40の一方の側壁の上側の略全域に亘って開口しており、このように導入用開口41を大きく開口させることで、二次元撮像素子31と一体化した撮像素子ホルダ37を受光用筐体40内に容易に入れることが可能になる。 The image sensor holder 37 is attached to the light receiving housing 40 with the two-dimensional image sensor 31 fixed, i.e., with the positional relationship between the two-dimensional image sensor 31, the light receiving lens 33, and the aperture 34 kept constant. As shown in FIG. 11A, an introduction opening 41 is formed in one side wall of the light receiving housing 40 for inserting the image sensor holder 37 holding the two-dimensional image sensor 31 into the light receiving housing 40. The introduction opening 41 is open over almost the entire upper area of one side wall of the light receiving housing 40, and by opening the introduction opening 41 widely in this way, it becomes possible to easily insert the image sensor holder 37 integrated with the two-dimensional image sensor 31 into the light receiving housing 40.

受光用筐体40は、投光用筐体20と対向する面が前面であり、前面は上下方向にのびている。受光用筐体40の後面は、投光用筐体20と対向する面と反対に位置する面であり、この後面は、上端に近づくほど前に位置するように傾斜しており、この傾斜角度は、後述する受光側反射体35の設置角度と対応している。後面の下側からは投光用ユニット10と接続される信号ケーブルC及び制御装置70と接続される接続ケーブルD(図2等に示す)が外部へ出ている。また、受光用筐体40の両側面は互いに平行に上下方向に延びている。受光用筐体40の下面は、固定部材60への取付面となっている。 The surface of the light-receiving housing 40 that faces the light-projecting housing 20 is the front surface, which extends vertically. The rear surface of the light-receiving housing 40 is the surface located opposite the surface that faces the light-projecting housing 20, and this rear surface is inclined so that it is positioned further forward as it approaches the upper end, and this inclination angle corresponds to the installation angle of the light-receiving side reflector 35 described below. A signal cable C that connects to the light-projecting unit 10 and a connection cable D (shown in FIG. 2, etc.) that connects to the control device 70 extend to the outside from the lower side of the rear surface. In addition, both side surfaces of the light-receiving housing 40 extend vertically parallel to each other. The lower surface of the light-receiving housing 40 is the mounting surface for the fixing member 60.

図2等に示すように、受光用筐体40には、導入用開口41を閉塞するための蓋体41aが設けられている。蓋体41aは、受光用筐体40に対して着脱可能に取り付けられている。蓋体41aの周縁部と、受光用筐体40における導入用開口41の周縁部との間にはシール材が配設されている。 As shown in FIG. 2 etc., the light-receiving housing 40 is provided with a lid 41a for closing the introduction opening 41. The lid 41a is removably attached to the light-receiving housing 40. A sealant is provided between the peripheral portion of the lid 41a and the peripheral portion of the introduction opening 41 in the light-receiving housing 40.

図6Aに示すように、受光側テレセントリックレンズ36は、受光用筐体40における投光側筐体20と対向する側に取り付けられており、その光軸が投光側テレセントリックレンズ15と同じ光軸上に位置するように配置されている。ここで、図6Bを用いて、光像の位置や大きさについて補足する。 As shown in FIG. 6A, the light-receiving telecentric lens 36 is attached to the side of the light-receiving housing 40 that faces the light-emitting housing 20, and is arranged so that its optical axis is located on the same optical axis as the light-emitting telecentric lens 15. Here, the position and size of the optical image are explained in more detail using FIG. 6B.

図6Bにおいて、受光側テレセントリックレンズ36は、投光側テレセントリックレンズ15により測定領域Sに向けられた平行光を、受光側レンズユニット38を介して二次元撮像素子31に導く。測定領域Sにおいて投光側テレセントリックレンズ15により形成される光像は、投光側テレセントリックレンズ15の光軸に沿ってその大きさが一定となる。同様に、受光側テレセントリックレンズ36は、受光側テレセントリックレンズ36の光軸に沿って視野サイズが一定となる。つまり、受光側テレセントリックレンズ36は、受光側テレセントリックレンズ36の光軸に沿って異なる位置に測定対象物が配置されても、測定対象物の遮光像に対応する光像の大きさは二次元撮像素子31上において一定となる。受光側テレセントリックレンズ36は、測定対象物の測定領域S内における遮光像を、二次元撮像素子31上にピントのあった光像として結像させる。測定対象物が測定領域Sのいずれの位置に配置されても、二次元撮像素子31上にピントのあった光像が形成されることが好ましい。二次元撮像素子31上においてピントのあった光像が形成されるような受光側テレセントリックレンズ36の光軸に沿った範囲を被写界深度(D1)と呼ぶことがある。被写界深度の大きさは、受光側テレセントリックレンズ36から受光用筐体40内に形成された光像までの光路長に応じており、光路長が長いほど光像のピントのあう範囲は広くなる。例えば高精度な測定をするための測定領域が大きい光学測定装置1の場合、受光側テレセントリックレンズ36から受光用筐体40内に形成された光像までの光路長は長いため、受光側反射体35により光路を折りたたむことで受光用筐体40のサイズを小型化するようにしてもよい。例えば視野サイズが直径40mmの光学測定装置1に対して被写界深度は20mm程度、視野サイズが直径64mmの光学測定装置1に対して被写界深度は30mm程度が設定されてもよい。この場合、受光側反射体35により光路を折りたたむことで受光用筐体40のサイズを小型化するようにしてもよい(図6Bにおいて点線で示す。投光側も同様)。また、例えば視野サイズが直径6mmの光学測定装置1に対して被写界深度は4mm程度が設定されてもよい。この場合、受光側反射体35を設けずに受光用筐体40を受光側テレセントリックレンズ36の光軸に沿って長い形状としてもよい。 6B, the light-receiving telecentric lens 36 guides the parallel light directed toward the measurement area S by the light-projecting telecentric lens 15 to the two-dimensional image sensor 31 via the light-receiving lens unit 38. The size of the light image formed by the light-projecting telecentric lens 15 in the measurement area S is constant along the optical axis of the light-projecting telecentric lens 15. Similarly, the light-receiving telecentric lens 36 has a constant field of view size along the optical axis of the light-receiving telecentric lens 36. In other words, even if the measurement object is placed at different positions along the optical axis of the light-receiving telecentric lens 36, the size of the light image corresponding to the light-shielded image of the measurement object is constant on the two-dimensional image sensor 31. The light-receiving telecentric lens 36 forms the light-shielded image of the measurement object in the measurement area S as a focused light image on the two-dimensional image sensor 31. It is preferable that a focused optical image is formed on the two-dimensional image sensor 31 regardless of the position of the measurement object in the measurement area S. The range along the optical axis of the light-receiving telecentric lens 36 where a focused optical image is formed on the two-dimensional image sensor 31 is sometimes called the depth of field (D1). The size of the depth of field depends on the optical path length from the light-receiving telecentric lens 36 to the optical image formed in the light-receiving housing 40, and the longer the optical path length, the wider the range in which the optical image is in focus. For example, in the case of an optical measuring device 1 having a large measurement area for high-precision measurement, the optical path length from the light-receiving telecentric lens 36 to the optical image formed in the light-receiving housing 40 is long, so the size of the light-receiving housing 40 may be reduced by folding the optical path with the light-receiving reflector 35. For example, the depth of field may be set to about 20 mm for an optical measuring device 1 with a field of view size of 40 mm in diameter, and about 30 mm for an optical measuring device 1 with a field of view size of 64 mm in diameter. In this case, the size of the light-receiving housing 40 may be reduced by folding the optical path with the light-receiving side reflector 35 (shown by dotted lines in FIG. 6B . The same applies to the light-projecting side). Also, for example, the depth of field may be set to about 4 mm for an optical measuring device 1 with a field of view size of 6 mm in diameter. In this case, the light-receiving housing 40 may be elongated along the optical axis of the light-receiving side telecentric lens 36 without providing the light-receiving side reflector 35.

図7及び図8Aに示すように、受光用筐体40における投光側筐体20と対向する側の壁部には、受光側テレセントリックレンズ36が嵌め込まれる受光側レンズ取付孔42が当該壁部を貫通するように形成されている。受光側レンズ取付孔42の奥側の内周面には、径方向内方へ突出するとともに、周方向に延びる突出部で構成された受光側レンズ取付座(第1の座)42aが一体成形されている。この受光側レンズ取付座42aに受光側テレセントリックレンズ36の奥側(光出射側)の端面の周縁部が当接することにより、受光側テレセントリックレンズ36が受光用筐体40に対して位置決めされる。受光側テレセントリックレンズ36を受光側レンズ取付座42aに直接当接させることで、受光用筐体40と受光側テレセントリックレンズ36との間に別部材が介在しないので、受光用筐体40の成形精度と同程度の高い精度で受光側テレセントリックレンズ36を位置決めできる。 7 and 8A, a light-receiving side lens mounting hole 42 into which the light-receiving side telecentric lens 36 is fitted is formed so as to penetrate the wall of the light-receiving housing 40 facing the light-emitting side housing 20. A light-receiving side lens mounting seat (first seat) 42a is integrally molded on the inner peripheral surface at the rear side of the light-receiving side lens mounting hole 42, protruding radially inward and consisting of a protrusion extending in the circumferential direction. The light-receiving side telecentric lens 36 is positioned relative to the light-receiving housing 40 by the peripheral portion of the end face at the rear side (light output side) of the light-receiving side telecentric lens 36 abutting against this light-receiving side lens mounting seat 42a. By directly abutting the light-receiving telecentric lens 36 against the light-receiving lens mounting seat 42a, no separate member is interposed between the light-receiving housing 40 and the light-receiving telecentric lens 36, so the light-receiving telecentric lens 36 can be positioned with high accuracy equivalent to the molding accuracy of the light-receiving housing 40.

受光用筐体40には、投光側テレセントリックレンズ15から出射されて測定領域Sを通過した平行光を受光側テレセントリックレンズ36へ入射させるための受光窓43が設けられている。受光窓43は、受光側テレセントリックレンズ36の光入射面を覆うように形成された略円形の受光側カバーガラス43aと、受光側カバーガラス43aが取り付けられた受光側枠体43bとを有している。受光側枠体43bは、受光側レンズ取付孔42における受光側テレセントリックレンズ36の光入射面側に嵌め込まれて受光用筐体40に固定されている。受光側テレセントリックレンズ36の光入射面と、受光側枠体43bとの間には、受光側弾性材(レンズ付勢部材)43cが配設されている。受光側弾性材43cは、例えばゴムや弾性を有する金属材等で構成されており、受光側テレセントリックレンズ36を受光側レンズ取付座42aに押し付ける方向に常時付勢するための部材である。受光側弾性材43cにより、受光側テレセントリックレンズ36が受光側レンズ取付座42aに常時押し付けられた状態で取り付けられる。受光側枠体43bは、受光側レンズ取付孔42における受光側テレセントリックレンズ36の光入射面側にねじ止めにより受光用筐体40に固定され、受光側弾性材43cにより、受光側テレセントリックレンズ36が受光側レンズ取付座42aに押圧固定されてもよい。 The light-receiving housing 40 is provided with a light-receiving window 43 for allowing the parallel light emitted from the light-emitting telecentric lens 15 and passing through the measurement area S to enter the light-receiving telecentric lens 36. The light-receiving window 43 has a substantially circular light-receiving cover glass 43a formed to cover the light-receiving telecentric lens 36's light-receiving cover glass 43a and a light-receiving frame 43b to which the light-receiving cover glass 43a is attached. The light-receiving frame 43b is fitted into the light-receiving telecentric lens 36's light-receiving lens mounting hole 42 and fixed to the light-receiving housing 40. A light-receiving elastic material (lens biasing member) 43c is disposed between the light-receiving telecentric lens 36's light-receiving frame 43b and the light-receiving telecentric lens 36's light-receiving surface. The light-receiving side elastic material 43c is made of, for example, rubber or a metal material having elasticity, and is a member for constantly biasing the light-receiving side telecentric lens 36 in a direction pressing it against the light-receiving side lens mounting seat 42a. The light-receiving side elastic material 43c causes the light-receiving side telecentric lens 36 to be mounted in a state in which it is constantly pressed against the light-receiving side lens mounting seat 42a. The light-receiving side frame 43b may be fixed to the light-receiving housing 40 by screwing on the light-incident surface side of the light-receiving side telecentric lens 36 in the light-receiving side lens mounting hole 42, and the light-receiving side elastic material 43c may press and fix the light-receiving side telecentric lens 36 to the light-receiving side lens mounting seat 42a.

受光用筐体40における導入用開口41が形成された面とは異なる面、即ち投光用ユニット10と反対側に位置する面には、受光側反射体35が嵌め込まれる受光側反射体取付孔44が開口している。受光側反射体取付孔44の奥側の内周面には、径方向内方へ突出するとともに、周方向に延びる突出部で構成された受光側反射体取付座(第2の座)44aが一体成形されている(図11D参照)。この受光側反射体取付座44aに受光側反射体35の奥側の端面の周縁部が当接することにより、受光側反射体35が受光用筐体40に対して位置決めされる。受光側反射体35を受光側反射体取付座44aに直接当接させることで、受光用筐体40と受光側反射体35との間に別部材が介在しないので、受光用筐体40の成形精度と同程度の高い精度で受光側反射体35を位置決めできる。 A light-receiving reflector mounting hole 44 into which the light-receiving reflector 35 is fitted is opened on a surface of the light-receiving housing 40 different from the surface on which the introduction opening 41 is formed, i.e., on the surface located opposite the light-projecting unit 10. A light-receiving reflector mounting seat (second seat) 44a, which protrudes radially inward and is composed of a protrusion extending in the circumferential direction, is integrally molded on the inner peripheral surface of the back side of the light-receiving reflector mounting hole 44 (see FIG. 11D). The light-receiving reflector 35 is positioned relative to the light-receiving housing 40 by the peripheral portion of the back end surface of the light-receiving reflector 35 abutting against this light-receiving reflector mounting seat 44a. By directly abutting the light-receiving reflector 35 against the light-receiving reflector mounting seat 44a, no separate member is interposed between the light-receiving housing 40 and the light-receiving reflector 35, so the light-receiving reflector 35 can be positioned with high accuracy equivalent to the molding accuracy of the light-receiving housing 40.

受光側反射体35は、例えば平板状のミラー等で構成されている。受光側反射体35は、受光側テレセントリックレンズ36の光出射面から出射した光が当該受光側反射体35の中央部に向けて入射するように配置されている。受光側反射体35の角度は、受光側テレセントリックレンズ36を通過した光を反射して折り返し、受光レンズ33へ向けて出射するように設定されている。受光側反射体35によって光を折り返すようにしているので、発熱源である二次元撮像素子31と受光側テレセントリックレンズ36とを離すことができる。 The light-receiving reflector 35 is composed of, for example, a flat mirror. The light-receiving reflector 35 is arranged so that the light emitted from the light-emitting surface of the light-receiving telecentric lens 36 is incident on the center of the light-receiving reflector 35. The angle of the light-receiving reflector 35 is set so that the light that passes through the light-receiving telecentric lens 36 is reflected and folded back, and is emitted toward the light-receiving lens 33. Since the light is folded back by the light-receiving reflector 35, the two-dimensional image sensor 31, which is a heat source, can be separated from the light-receiving telecentric lens 36.

受光用筐体40には、反射体取付孔44を受光用筐体40の外から覆うカバー44dが取り付けられている。カバー44dは、受光用筐体40に対して着脱可能に取り付けられている。カバー44dの内面と、受光側反射体35との間には、反射体側弾性材(反射体付勢部材)44cが配設されている。反射体弾性材44cは、例えばゴムや弾性を有する金属材等で構成されており、受光側反射体35を受光側反射体取付座44aに押し付ける方向に常時付勢するための部材である。反射体側弾性材44cにより、受光側反射体35が受光側反射体取付座44aに常時押し付けられた状態で取り付けられる。カバー44dはねじ止めにより受光用筐体40に対して固定され、反射体側弾性材44cにより、受光側反射体35が受光側反射体取付座44aに押圧固定されてもよい。 A cover 44d is attached to the light-receiving housing 40 to cover the reflector mounting hole 44 from the outside of the light-receiving housing 40. The cover 44d is detachably attached to the light-receiving housing 40. A reflector-side elastic material (reflector biasing member) 44c is disposed between the inner surface of the cover 44d and the light-receiving side reflector 35. The reflector elastic material 44c is made of, for example, rubber or a metal material having elasticity, and is a member for constantly biasing the light-receiving side reflector 35 in a direction to press it against the light-receiving side reflector mounting seat 44a. The light-receiving side reflector 35 is attached in a state in which it is constantly pressed against the light-receiving side reflector mounting seat 44a by the reflector-side elastic material 44c. The cover 44d is fixed to the light-receiving housing 40 by a screw, and the light-receiving side reflector 35 may be pressed and fixed to the light-receiving side reflector mounting seat 44a by the reflector-side elastic material 44c.

図12に示すように、受光用筐体40の側面(外面)には、当該受光用筐体40を設置する時の基準となる複数の側方基準面40a(図12では3か所)が設けられている。側方基準面40aは、貫通孔40bの円形縁で構成されており、互いに同一平面上に位置する高精度な面である。受光用筐体40を設置する部材に側方基準面40aを当接させることで、受光用筐体40を高精度に位置決めすることができる。この実施形態では、側方基準面40aの中央部に貫通孔40bが形成されている。受光用筐体40のもう一方の側面(外面)にも同様に側方基準面が設けられていてもよい。 As shown in FIG. 12, the side (outer surface) of the light-receiving housing 40 is provided with multiple lateral reference surfaces 40a (three in FIG. 12) that serve as a reference when installing the light-receiving housing 40. The lateral reference surfaces 40a are formed by the circular edges of the through holes 40b, and are highly accurate surfaces that are located on the same plane as each other. The light-receiving housing 40 can be positioned with high accuracy by abutting the lateral reference surfaces 40a against the member on which the light-receiving housing 40 is installed. In this embodiment, a through hole 40b is formed in the center of the lateral reference surface 40a. A similar lateral reference surface may be provided on the other side (outer surface) of the light-receiving housing 40.

また、受光用筐体40の底面(外面)には、当該受光用筐体40を設置する時の基準となる複数の底部基準面40cが設けられている。底部基準面40cは、平面で構成されており、互いに同一平面上に位置する高精度な面である。この実施形態では、底部基準面40cにねじ穴101が形成されている。受光用筐体40を設置する部材に底部基準面40cを当接させることで、受光用筐体40を高精度に位置決めすることができる。受光用筐体40を設置する際には、側方基準面40aと底部基準面40cのどちらを基準にしてもよい。側方基準面40aと底部基準面40cとは他の面よりも突出することで、平面形状の被取付面に当接させることができる。側方基準面40aを基準に設置する場合は、被取付面に側方基準面40aを当接させて、各側方基準面40aの貫通孔40bに取付用のボルトを貫通させて被取付面に受光用筐体40を固定する。底部基準面40cを基準に設置する場合は、被取付面に底部基準面40cを当接させて、各底部基準面40cのねじ穴101に取付用のねじを螺合させて被取付面に受光用筐体40を固定する。例えば、各底部基準面60cは、固定部材60の上面と当接した状態でねじ穴101に取付用のねじを螺合されて、固定部材60に固定される。 In addition, the bottom surface (outer surface) of the light receiving housing 40 is provided with a plurality of bottom reference surfaces 40c that serve as a reference when installing the light receiving housing 40. The bottom reference surfaces 40c are composed of flat surfaces and are highly accurate surfaces that are located on the same plane as each other. In this embodiment, a screw hole 101 is formed in the bottom reference surface 40c. The light receiving housing 40 can be positioned with high accuracy by abutting the bottom reference surface 40c against the member on which the light receiving housing 40 is installed. When installing the light receiving housing 40, either the side reference surface 40a or the bottom reference surface 40c may be used as a reference. The side reference surface 40a and the bottom reference surface 40c can be abutted against a planar mounting surface by protruding from other surfaces. When installing based on the side reference surface 40a, the side reference surface 40a is abutted against the mounting surface, and a mounting bolt is inserted through the through hole 40b of each side reference surface 40a to fix the light receiving housing 40 to the mounting surface. When the bottom reference surface 40c is used as a reference for installation, the bottom reference surface 40c is abutted against the mounting surface, and mounting screws are screwed into the screw holes 101 of each bottom reference surface 40c to fix the light receiving housing 40 to the mounting surface. For example, each bottom reference surface 60c is fixed to the fixing member 60 by screwing mounting screws into the screw holes 101 while abutting against the upper surface of the fixing member 60.

また、図3に示すように、受光用筐体40の前面である投光側ユニット10と対向する面には、ワーキングディスタンス基準面40dが設けられている。 As shown in FIG. 3, a working distance reference surface 40d is provided on the front surface of the light receiving housing 40, which faces the light projecting unit 10.

受光用筐体40は一側面が開口した箱形状を有しており、箱形状の側面及び/又は底面に被取付面に当接するための基準面が形成されている。箱形状の前面及び/又は背面には、測定光の光路を決定する反射体及びレンズ等の光学素子を位置決めする座が形成されている。座は、一方側面から他方の側面に延びで形成され、箱形状の前面及び/又は背面の剛性をより強固なものにしている。例えば、箱形状の前面には、受光側テレセントリックレンズ36を直接位置決めし、固定的に取り付けるための座が形成され、箱形状の背面(内部)には、受光側反射体35を直接位置決めし、固定的に取り付けるための座が形成され、箱形状の閉塞した側面には撮像素子ホルダ37が位置調整可能に取り付けられる。これにより基準面に対して高精度な測定光を照明することができる。なお、箱形状の底面には二次元撮像素子31や撮像素子ホルダ37の位置調整するためのアクセス用開口46が形成されてもよい。 The light receiving housing 40 has a box shape with one side open, and a reference surface for abutting against the mounting surface is formed on the side and/or bottom of the box shape. A seat for positioning optical elements such as a reflector and a lens that determine the optical path of the measurement light is formed on the front and/or back of the box shape. The seat is formed by extending from one side to the other side, making the rigidity of the front and/or back of the box shape stronger. For example, a seat for directly positioning and fixedly mounting the light receiving telecentric lens 36 is formed on the front of the box shape, a seat for directly positioning and fixedly mounting the light receiving reflector 35 is formed on the back (inside) of the box shape, and the image sensor holder 37 is attached to the closed side of the box shape so that the position can be adjusted. This allows high-precision measurement light to be illuminated against the reference surface. In addition, an access opening 46 for adjusting the position of the two-dimensional image sensor 31 and the image sensor holder 37 may be formed on the bottom of the box shape.

要するに、図8Bに示すように、本実施形態に係る受光用筐体40では、受光側テレセントリックレンズ36と受光側反射体35を、剛性の高い受光用筐体40の壁面に固定するとともに、撮像素子ホルダ37を位置調整可能に取り付けている。これにより、高精度な測定を実現することができる。 In short, as shown in FIG. 8B, in the light-receiving housing 40 according to this embodiment, the light-receiving telecentric lens 36 and the light-receiving reflector 35 are fixed to the wall surface of the light-receiving housing 40, which has high rigidity, and the image sensor holder 37 is attached so that its position can be adjusted. This allows for highly accurate measurements.

(制御装置70の構成)
図1に示すように、受光用ユニット30に設けられている撮像制御部39は、接続ケーブルDを介して制御装置70の画像取得部71によって制御されて、所定のタイミングで光源11に光を照射させるとともに、二次元撮像素子31により撮像させる。受光用ユニット30を駆動する電力は、接続ケーブルDを介して制御装置70から供給される。接続ケーブルDには、耐屈曲ケーブルを用いることができ、受光用ユニット30及び投光用ユニット10をロボットアーム等の可動部に設置し、制御装置70を非可動に設置する等分離して配置することができる。光源11と二次元撮像素子31との同期は、信号ケーブルCによってとることができる。例えば撮像の間隔が数ミリ秒~数十ミリ秒であって各撮像における露光時間が100マイクロ秒となるように撮像制御部39によって二次元撮像素子31に撮像タイミング及び露光タイミングを定義するタイミング信号が供給され、撮像制御部39によって光源11に信号ケーブルCを介して発光タイミングを定義するタイミング信号が供給される。光源11を駆動する電力は信号ケーブルCを介して受光用ユニット30から供給される。光源11により生成された測定光は、拡散手段13によって拡散された後、投光側反射体14で反射して折り返されてから投光側テレセントリックレンズ15に入射する。投光側テレセントリックレンズ15は、入射した測定光を平行光に変換して測定領域Sに向けて出射する。つまり、投光側テレセントリックレンズ15は、測定光による拡散手段13上の光像を、投光側テレセントリックレンズ15の光軸に沿ってサイズが一定となるような光像が測定領域Sに形成されるように測定光を出射する。このとき、平行光は受光窓23を通過して測定領域Sに達する。測定領域SにワークWが配置されていると、平行光の一部がワークWによって遮られる。
(Configuration of the control device 70)
As shown in FIG. 1, the imaging control section 39 provided in the light receiving unit 30 is controlled by the image acquisition section 71 of the control device 70 via the connection cable D, and causes the light source 11 to irradiate light at a predetermined timing and causes the two-dimensional image sensor 31 to capture an image. Power for driving the light receiving unit 30 is supplied from the control device 70 via the connection cable D. A bend-resistant cable can be used for the connection cable D, and the light receiving unit 30 and the light projecting unit 10 can be installed on a movable part such as a robot arm, and the control device 70 can be installed in a non-movable manner and separately arranged. The light source 11 and the two-dimensional image sensor 31 can be synchronized by a signal cable C. For example, the imaging control section 39 supplies a timing signal that defines the imaging timing and exposure timing to the two-dimensional image sensor 31 so that the imaging interval is several milliseconds to several tens of milliseconds and the exposure time in each imaging is 100 microseconds, and the imaging control section 39 supplies a timing signal that defines the light emission timing to the light source 11 via the signal cable C. Power for driving the light source 11 is supplied from the light receiving unit 30 via the signal cable C. The measurement light generated by the light source 11 is diffused by the diffusing means 13, reflected by the light-projecting reflector 14, and then enters the light-projecting telecentric lens 15. The light-projecting telecentric lens 15 converts the incident measurement light into parallel light and emits it toward the measurement area S. In other words, the light-projecting telecentric lens 15 emits measurement light so that an optical image of the measurement light on the diffusing means 13 is formed in the measurement area S such that the size of the optical image is constant along the optical axis of the light-projecting telecentric lens 15. At this time, the parallel light passes through the light receiving window 23 and reaches the measurement area S. If a workpiece W is placed in the measurement area S, part of the parallel light is blocked by the workpiece W.

測定領域Sを通過した平行光は、受光窓43を通過して受光側テレセントリックレンズ36に入射した後、受光側反射体35で反射して折り返されてから絞り34、受光レンズ33を通過する。そして、ワークWの影像が二次元撮像素子31の撮像面で結像する。制御装置70の画像取得部71は、二次元撮像素子31を制御して当該二次元撮像素子31により撮像させてワークWの測定画像を取得する。取得されたワークWの測定画像は略円形の画像である。DSP72は、画像取得部71により取得された測定画像にフィルタ処理等の画像処理を実行する。CPU73は、DSP72から出力された測定画像のエッジを抽出し、抽出されたエッジを用いて寸法測定を実行する。測定画像や測定結果等は一時的にメモリ74に記憶することができる。測定画像や測定結果等は入出力回路75から記憶装置83、プログラマブルコントローラ90及び表示装置82に出力される。 The parallel light that passes through the measurement area S passes through the light receiving window 43 and enters the light receiving side telecentric lens 36, is reflected by the light receiving side reflector 35, is folded back, and passes through the aperture 34 and the light receiving lens 33. Then, an image of the workpiece W is formed on the imaging surface of the two-dimensional image sensor 31. The image acquisition unit 71 of the control device 70 controls the two-dimensional image sensor 31 to capture an image using the two-dimensional image sensor 31 and acquire a measurement image of the workpiece W. The acquired measurement image of the workpiece W is an approximately circular image. The DSP 72 performs image processing such as filtering on the measurement image acquired by the image acquisition unit 71. The CPU 73 extracts the edges of the measurement image output from the DSP 72 and performs dimensional measurement using the extracted edges. The measurement image, measurement results, etc. can be temporarily stored in the memory 74. The measurement image, measurement results, etc. are output from the input/output circuit 75 to the storage device 83, the programmable controller 90, and the display device 82.

(二次元撮像素子の位置及び姿勢の調整機構)
上述したように、光源11から測定領域Sに測定光を投射してワークW越しでワークWの影像を二次元撮像素子31の撮像面に結像させる光学測定装置1は、ワークWの幾何形状を測定すること以外にも、ワークWの位置決めやアライメント測定などにも用いられることがある。その際に、基準となる面に対して、光軸が水平垂直でないと、ワークWが光軸方向に移動した時にワークWの位置がずれて撮像面に結像してしまい、測定精度の低下をもたらすおそれがあった。特に、光学測定装置1を構成する部品の製造誤差や組付誤差、調整のための治具の誤差等によって二次元撮像素子31の光軸が傾いてしまうと、上述した測定精度の低下が顕著なものになる。
(Adjustment mechanism for position and attitude of two-dimensional image sensor)
As described above, the optical measuring device 1, which projects the measuring light from the light source 11 onto the measuring area S and forms an image of the workpiece W through the workpiece W on the imaging surface of the two-dimensional imaging element 31, may be used not only to measure the geometric shape of the workpiece W, but also to position and measure the alignment of the workpiece W. In this case, if the optical axis is not horizontal and vertical with respect to the reference surface, the position of the workpiece W may be shifted when the workpiece W moves in the optical axis direction, resulting in a risk of a decrease in measurement accuracy. In particular, if the optical axis of the two-dimensional imaging element 31 is tilted due to manufacturing errors or assembly errors of the parts constituting the optical measuring device 1, errors in the jig for adjustment, etc., the above-mentioned decrease in measurement accuracy becomes significant.

そこで、本実施形態では、二次元撮像素子31が、撮像素子ホルダ37に保持されているとともに、当該二次元撮像素子31の位置及び姿勢の調整を可能にする調整機構50を介して受光側筐体40に取り付けられている。調整機構50は、図9に示すように二次元撮像素子31をX方向及びY方向に並進させるとともに、θ方向に回動させることが可能に構成されている。また、二次元撮像素子31は、図7にも示すように調整機構50によってZ方向に並進させることも可能になっている。X方向は、二次元撮像素子31のX方向に対応している。Y方向は、二次元撮像素子31のY方向に対応しており、受光用ユニット30の幅方向である。Z方向は、二次元撮像素子31の撮像面に直交する方向である。θ方向は、Z軸回りである。 In this embodiment, the two-dimensional imaging element 31 is held by the imaging element holder 37 and is attached to the light receiving side housing 40 via an adjustment mechanism 50 that allows the position and attitude of the two-dimensional imaging element 31 to be adjusted. The adjustment mechanism 50 is configured to translate the two-dimensional imaging element 31 in the X and Y directions as well as rotate it in the θ direction as shown in FIG. 9. The two-dimensional imaging element 31 can also be translated in the Z direction by the adjustment mechanism 50 as shown in FIG. 7. The X direction corresponds to the X direction of the two-dimensional imaging element 31. The Y direction corresponds to the Y direction of the two-dimensional imaging element 31 and is the width direction of the light receiving unit 30. The Z direction is a direction perpendicular to the imaging surface of the two-dimensional imaging element 31. The θ direction is around the Z axis.

図10にも示すように、調整機構50は、筐体側調整部材51と、シム52と、筐体側ねじ53と、ホルダ側ねじ54と、撮像素子側ねじ55とを備えている。筐体側ねじ53の軸方向とホルダ側ねじ54の軸方向とは一致しており、Y方向である。また、撮像素子側ねじ55の軸方向は筐体側ねじ53の軸方向と直交しており、Z方向である。各ねじ53、54、55の本数は任意に設定することができる。 As also shown in FIG. 10, the adjustment mechanism 50 includes a housing-side adjustment member 51, a shim 52, a housing-side screw 53, a holder-side screw 54, and an image sensor-side screw 55. The axial direction of the housing-side screw 53 and the axial direction of the holder-side screw 54 are the same, which is the Y direction. The axial direction of the image sensor-side screw 55 is perpendicular to the axial direction of the housing-side screw 53, which is the Z direction. The number of each screw 53, 54, 55 can be set arbitrarily.

筐体側調整部材51は、受光用筐体40の側壁の内面に沿って延びる板状部材である。筐体側調整部材51の周縁部には、Z方向に長い3つの長孔51aが互いにX方向及びY方向に間隔をあけて形成されている。受光用筐体40の側壁の内面には、長孔51aに対応する箇所にねじ孔(図示せず)が形成されている。筐体側調整部材51の長孔51aに筐体側ねじ53を挿通させて受光用筐体40のねじ孔に螺合させると、筐体側調整部材51を受光用筐体40に締結固定することができる。筐体側ねじ53を締め付けると、筐体側調整部材51を受光用筐体40に固定した固定状態にすることができる一方、筐体側ねじ53を緩めると、筐体側調整部材51を受光用筐体40に対してZ方向に変位可能にする非固定状態にすることができる。 The housing-side adjustment member 51 is a plate-like member extending along the inner surface of the side wall of the light-receiving housing 40. Three long holes 51a long in the Z direction are formed on the periphery of the housing-side adjustment member 51 at intervals in the X and Y directions. Screw holes (not shown) are formed on the inner surface of the side wall of the light-receiving housing 40 at locations corresponding to the long holes 51a. When the housing-side screw 53 is inserted into the long hole 51a of the housing-side adjustment member 51 and screwed into the screw hole of the light-receiving housing 40, the housing-side adjustment member 51 can be fastened and fixed to the light-receiving housing 40. When the housing-side screw 53 is tightened, the housing-side adjustment member 51 can be fixed to the light-receiving housing 40, while when the housing-side screw 53 is loosened, the housing-side adjustment member 51 can be put into an unfixed state in which it can be displaced in the Z direction relative to the light-receiving housing 40.

シム52は、筐体側調整部材51と撮像素子ホルダ37との間に配置される部材であり、必要に応じて設けることができる。シム52の厚みや枚数を変更することで、二次元撮像素子31のY方向の位置調整が可能である。 The shims 52 are members that are placed between the housing side adjustment members 51 and the image sensor holder 37, and can be provided as necessary. By changing the thickness and number of the shims 52, it is possible to adjust the position of the two-dimensional image sensor 31 in the Y direction.

撮像素子ホルダ37には、X方向に長い長孔37aが互いにX方向に間隔をあけて2つ形成されている(図9及び図10では1つのみ示す)。シム52には長孔37aに対応する箇所に挿通孔52bが形成されている。また、筐体側調整部材51には、長孔37aに対応する箇所にねじ孔51bが形成されている。撮像素子ホルダ37の長孔37a及びシム52の挿通孔52bにホルダ側ねじ54を挿通させて筐体側調整部材51のねじ孔51bに螺合させると、撮像素子ホルダ37を筐体側調整部材51に締結固定することができる。ホルダ側ねじ54を締め付けると、撮像素子ホルダ37を筐体側調整部材51に固定した固定状態にすることができる一方、ホルダ側ねじ54を緩めると、撮像素子ホルダ37を筐体側調整部材51に対してX方向に変位可能にする非固定状態にすることができる。 The imaging element holder 37 has two long holes 37a that are long in the X direction and spaced apart from each other in the X direction (only one is shown in Figs. 9 and 10). The shim 52 has an insertion hole 52b at a location corresponding to the long hole 37a. The housing side adjustment member 51 has a screw hole 51b at a location corresponding to the long hole 37a. When the holder side screw 54 is inserted through the long hole 37a of the imaging element holder 37 and the insertion hole 52b of the shim 52 and screwed into the screw hole 51b of the housing side adjustment member 51, the imaging element holder 37 can be fastened and fixed to the housing side adjustment member 51. When the holder side screw 54 is tightened, the imaging element holder 37 can be fixed to the housing side adjustment member 51, while when the holder side screw 54 is loosened, the imaging element holder 37 can be put into an unfixed state in which it can be displaced in the X direction relative to the housing side adjustment member 51.

調整機構50は、二次元撮像素子31が固定される撮像素子固定部材56を更に備えている。撮像素子固定部材56は、撮像素子ホルダ37とは別体とされており、撮像素子ホルダ37と二次元撮像素子31との間に配置されている。図10に示すように、撮像素子固定部材56には、貫通孔56aが形成されており、光が二次元撮像素子31に到達するのを阻害しないように構成されている。撮像素子固定部材56のY方向両側には、調整用孔56aが形成されている。調整用孔56aは、X方向に長い形状とされるとともに、Y方向にも大きく形成されている。撮像素子ホルダ37における調整用孔56aに対応する箇所にねじ孔(図示せず)が形成されている。撮像素子側ねじ55を撮像素子固定部材56の調整用孔56aに挿通させて撮像素子ホルダ37のねじ孔に螺合させると、撮像素子固定部材56を撮像素子ホルダ37に締結固定することができる。撮像素子側ねじ55を締め付けると、二次元撮像素子31を、撮像素子固定部材56、撮像素子ホルダ37及び筐体側調整部材51を介して、受光用筐体40に固定することができる。一方、撮像素子側ねじ55を緩めると、二次元撮像素子31を受光用筐体40に対してX方向及びY方向へ変位させることが可能になるとともに、θ方向への回動も可能になる。つまり、撮像素子側ねじ55は、二次元撮像素子31を受光用筐体40に固定した固定状態と、二次元撮像素子31を受光用筐体40に対して変位可能にする非固定状態とに切り替える固定具である。 The adjustment mechanism 50 further includes an image sensor fixing member 56 to which the two-dimensional image sensor 31 is fixed. The image sensor fixing member 56 is separate from the image sensor holder 37 and is disposed between the image sensor holder 37 and the two-dimensional image sensor 31. As shown in FIG. 10, the image sensor fixing member 56 has a through hole 56a formed therein so as not to impede the light from reaching the two-dimensional image sensor 31. An adjustment hole 56a is formed on both sides of the image sensor fixing member 56 in the Y direction. The adjustment hole 56a is elongated in the X direction and is also formed large in the Y direction. A screw hole (not shown) is formed at a position corresponding to the adjustment hole 56a in the image sensor holder 37. When the image sensor side screw 55 is inserted through the adjustment hole 56a of the image sensor fixing member 56 and screwed into the screw hole of the image sensor holder 37, the image sensor fixing member 56 can be fastened and fixed to the image sensor holder 37. When the image sensor side screw 55 is tightened, the two-dimensional image sensor 31 can be fixed to the light receiving housing 40 via the image sensor fixing member 56, the image sensor holder 37, and the housing side adjustment member 51. On the other hand, when the image sensor side screw 55 is loosened, the two-dimensional image sensor 31 can be displaced in the X direction and the Y direction relative to the light receiving housing 40, and can also be rotated in the θ direction. In other words, the image sensor side screw 55 is a fixing device that switches between a fixed state in which the two-dimensional image sensor 31 is fixed to the light receiving housing 40, and an unfixed state in which the two-dimensional image sensor 31 can be displaced relative to the light receiving housing 40.

図7に示すように、撮像素子側ねじ55の頭部は斜め下に突出するように配置されている。この撮像素子側ねじ55の頭部には、六角レンチやドライバ、ソケット等の工具200(図7に示す)が係合する工具係合部55a(図9に示す)が設けられている。工具係合部55aは、工具200の先端部が差し込まれる穴や窪み等で構成することができる。また、撮像素子側ねじ55は、六角ボルト等で構成されていてもよい。 As shown in FIG. 7, the head of the imaging element side screw 55 is positioned so as to protrude diagonally downward. The head of this imaging element side screw 55 is provided with a tool engagement portion 55a (shown in FIG. 9) that engages with a tool 200 (shown in FIG. 7) such as a hexagonal wrench, driver, or socket. The tool engagement portion 55a can be configured as a hole or recess into which the tip of the tool 200 is inserted. The imaging element side screw 55 may also be configured as a hexagonal bolt, etc.

受光用筐体40における底面(導入用開口41が形成された面とは異なる面)には、受光用筐体40の外部から調整機構50の撮像素子側ねじ55、55にそれぞれアクセスするためのアクセス用開口46、46が形成されている。アクセス用開口46、46のY方向の間隔は、撮像素子側ねじ55、55の間隔と等しく設定されている。撮像素子側ねじ55の軸線を下方へ延長した時、当該軸線が受光用筐体40の底面と交差した部分に、アクセス用開口46が位置している。アクセス用開口46は受光用筐体40を貫通して受光用筐体40の内外を連通させる連通口でもある。したがって、アクセス用開口46は、二次元撮像素子31の撮像面と略直交する方向から撮像素子側ねじ55にアクセス可能になっている。 In the bottom surface (a surface different from the surface on which the introduction opening 41 is formed) of the light-receiving housing 40, access openings 46, 46 are formed for accessing the image sensor side screws 55, 55 of the adjustment mechanism 50 from outside the light-receiving housing 40. The distance between the access openings 46, 46 in the Y direction is set equal to the distance between the image sensor side screws 55, 55. When the axis of the image sensor side screw 55 is extended downward, the access opening 46 is located at the portion where the axis intersects with the bottom surface of the light-receiving housing 40. The access opening 46 is also a communication port that penetrates the light-receiving housing 40 to communicate between the inside and outside of the light-receiving housing 40. Therefore, the access opening 46 allows access to the image sensor side screw 55 from a direction approximately perpendicular to the imaging surface of the two-dimensional image sensor 31.

アクセス用開口46の径は、工具200の先端部を受光用筐体40内へ差し込むことができるように設定されている。また、アクセス用開口46は撮像素子側ねじ55の軸線の延長線上に位置しているので、工具200の先端部をアクセス用開口46から受光用筐体40内へ差し込むだけで、撮像素子側ねじ55の工具係合部55aに係合させることが可能になる。したがって、アクセス用開口46は工具200の先端部を撮像素子側ねじ55の工具係合部55aへ案内する案内用開口と呼ぶこともできる。アクセス用開口46が形成されていることで、作業者が撮像素子側ねじ55を目視することなく、撮像素子側ねじ55を工具200によって緩めたり、締め込んだりすることが可能になる。 The diameter of the access opening 46 is set so that the tip of the tool 200 can be inserted into the light-receiving housing 40. In addition, since the access opening 46 is located on an extension of the axis of the image sensor side screw 55, the tip of the tool 200 can be engaged with the tool engagement portion 55a of the image sensor side screw 55 simply by inserting it from the access opening 46 into the light-receiving housing 40. Therefore, the access opening 46 can also be called a guide opening that guides the tip of the tool 200 to the tool engagement portion 55a of the image sensor side screw 55. The formation of the access opening 46 makes it possible for the operator to loosen or tighten the image sensor side screw 55 with the tool 200 without visually checking the image sensor side screw 55.

図8Aに示すように、受光用筐体40には、アクセス用開口46を封止するための封止部材またはアクセス用開口46を閉塞するための閉塞部材として、ねじ47とシール材48とが設けられている。シール材48は、例えばゴム等の弾性を有するとともに止水性を有する部材で構成されており、アクセス用開口46の内周面に全周に亘って密着するようになっている。ねじ47は、アクセス用開口46の内周面に形成されたねじ溝(図示せず)に螺合するようになっている。ねじ47とシール材48とは一体化されていてもよい。ねじ47とシール材48をアクセス用開口46から外部へ出すことで、アクセス用開口46を開放させて工具200による撮像素子側ねじ55の操作が可能になる。一方、ねじ47とシール材48でアクセス用開口46を封止することで、防水性及び防塵性を確保できる。尚、ねじ47のみでアクセス用開口46を封止してもよいし、例えばキャップのような部材によってアクセス用開口46を封止してもよい。 8A, the light receiving housing 40 is provided with a screw 47 and a sealant 48 as a sealing member for sealing the access opening 46 or a blocking member for blocking the access opening 46. The sealant 48 is made of a material having elasticity and water-stopping properties, such as rubber, and is adapted to be in close contact with the inner peripheral surface of the access opening 46 over the entire circumference. The screw 47 is adapted to be screwed into a thread groove (not shown) formed on the inner peripheral surface of the access opening 46. The screw 47 and the sealant 48 may be integrated. By taking the screw 47 and the sealant 48 out of the access opening 46, the access opening 46 is opened, and the image sensor side screw 55 can be operated by the tool 200. On the other hand, by sealing the access opening 46 with the screw 47 and the sealant 48, waterproofness and dustproofness can be ensured. The access opening 46 may be sealed only with the screw 47, or may be sealed with a member such as a cap.

図2及び図3に示す使用形態、即ち固定部材60を使用する形態の場合、図14に示すように、固定部材60には、当該固定部材60に固定された受光用筐体40に形成されたアクセス用開口46と対応する位置に当該アクセス用開口46と通じる貫通孔61を形成することができる。貫通孔61は、固定部材60の長手方向に長い長穴であってもよい。貫通孔61の径は、工具200を挿入可能な大きさとされている。 2 and 3, that is, in the case of using the fixed member 60, as shown in FIG. 14, the fixed member 60 can be formed with a through hole 61 communicating with the access opening 46 at a position corresponding to the access opening 46 formed in the light receiving housing 40 fixed to the fixed member 60. The through hole 61 may be an elongated hole that is long in the longitudinal direction of the fixed member 60. The diameter of the through hole 61 is set to a size that allows the tool 200 to be inserted.

固定部材60の構造や形状は特に限定されるものではないが、本実施形態では、固定部材60の底面に、当該固定部材60の長手方向に延びる2本の溝60a、60aが幅方向に互いに間隔をあけて形成されている。この場合、貫通孔61は、溝60aの内部に開口させることができる。 The structure and shape of the fixing member 60 are not particularly limited, but in this embodiment, two grooves 60a, 60a extending in the longitudinal direction of the fixing member 60 are formed on the bottom surface of the fixing member 60 at a distance from each other in the width direction. In this case, the through hole 61 can be opened into the inside of the groove 60a.

(調整機構による調整)
次に、上述のように構成された調整機構50を用いた調整について説明する。ホルダ側ねじ54のみを緩めて、撮像素子ホルダ37を筐体側調整部材51に対してX方向に変位させると、受光用筐体40の底部基準面40cに対する光軸の平行度を調整することが可能になる。また、シム52の厚みや枚数を変更することによって二次元撮像素子31をY方向に変位させると、受光用筐体40の側方基準面40aに対する光軸の平行度を調整することが可能になる。
(Adjustment by adjustment mechanism)
Next, adjustment using the adjustment mechanism 50 configured as described above will be described. By loosening only the holder-side screw 54 and displacing the image sensor holder 37 in the X direction relative to the housing-side adjustment member 51, it becomes possible to adjust the parallelism of the optical axis relative to the bottom reference surface 40c of the light-receiving housing 40. In addition, by displacing the two-dimensional image sensor 31 in the Y direction by changing the thickness or number of the shims 52, it becomes possible to adjust the parallelism of the optical axis relative to the side reference surface 40a of the light-receiving housing 40.

筐体側ねじ53のみを緩めて筐体側調整部材51を受光用筐体40に対してZ方向に変位させると、ワーキングディスタンス基準面40d(図3に示す)に対するワーキングディスタンスの調整(ピントの調整)を行うことが可能になる。別の言い方をすれば、受光側レンズユニット38を、基板31aに対してZ方向に変位させると、ワークディスタンスを調整することができる。また、二次元撮像素子31が固定された撮像素子ホルダ37を投光側ユニット10に対して接離する方向に動かすと、光学系のテレセントリック性を調整できる。 By loosening only the housing side screw 53 and displacing the housing side adjustment member 51 in the Z direction relative to the light-receiving housing 40, it becomes possible to adjust the working distance (adjust the focus) relative to the working distance reference surface 40d (shown in FIG. 3). In other words, by displacing the light-receiving side lens unit 38 in the Z direction relative to the substrate 31a, the working distance can be adjusted. In addition, by moving the image sensor holder 37 to which the two-dimensional image sensor 31 is fixed in a direction toward or away from the light-emitting side unit 10, the telecentricity of the optical system can be adjusted.

また、工具200によって外部から撮像素子側ねじ55にアクセスして撮像素子側ねじ55を緩めると、図7に示すように二次元撮像素子31をX方向及びY方向に変位させることができるとともに、θ方向に回動させることができる。二次元撮像素子31をX方向に変位させると視野がX’方向に変動し、二次元撮像素子31をY方向に変位させると視野がY’方向に変動し、二次元撮像素子31をθ方向に回動させると視野がθ’方向に変動する。 In addition, when the image sensor side screw 55 is accessed from the outside using the tool 200 and loosened, the two-dimensional image sensor 31 can be displaced in the X and Y directions as well as rotated in the θ direction, as shown in FIG. 7. When the two-dimensional image sensor 31 is displaced in the X direction, the field of view changes in the X' direction; when the two-dimensional image sensor 31 is displaced in the Y direction, the field of view changes in the Y' direction; and when the two-dimensional image sensor 31 is rotated in the θ direction, the field of view changes in the θ' direction.

(光学測定装置の設定時)
光学測定装置1は、当該光学測定装置1の運用前に各種設定を行うことができる。以下、図15に示すフローチャートに基づいて光学測定装置1の設定時の処理手順の一例を説明する。図15に示すフローチャートは、ユーザによる設定処理開始の操作が行われたことを検出するとスタートする。例えば、設定開始ボタン等をユーザが操作すると、ステップSA1に進み、測定設定の元になる基準画像を設定する。このステップSA1では、制御装置70が図16に示すような設定用ユーザーインターフェース画面300を生成して表示装置82に表示させる。設定用ユーザーインターフェース画面300には、基準画像301が表示される基準画像表示領域302と、各種設定操作領域303とが設けられている。基準画像301は、基準となるワークWを測定領域Sに配置して二次元撮像素子31で撮像し、画像取得部71により取得された画像である。ワークWは影像として基準画像表示領域302に表示される。また、基準画像301は円形である。ユーザは、基準画像301が所望の画像であるか否かを確認し、所望の画像であれば、図15に示すフローチャートの次のステップSA2に進む。
(When setting up optical measurement equipment)
The optical measuring device 1 can perform various settings before the optical measuring device 1 is put into operation. Hereinafter, an example of a processing procedure for setting the optical measuring device 1 will be described based on the flowchart shown in FIG. 15. The flowchart shown in FIG. 15 starts when it is detected that a user has performed an operation to start the setting process. For example, when the user operates a setting start button or the like, the process proceeds to step SA1, and a reference image that is the basis of the measurement setting is set. In this step SA1, the control device 70 generates a setting user interface screen 300 as shown in FIG. 16 and displays it on the display device 82. The setting user interface screen 300 is provided with a reference image display area 302 in which a reference image 301 is displayed, and various setting operation areas 303. The reference image 301 is an image obtained by the image acquisition unit 71 after placing a workpiece W as a reference in the measurement area S and capturing an image with the two-dimensional image sensor 31. The workpiece W is displayed as a shadow image in the reference image display area 302. The reference image 301 is also circular. The user checks whether or not the reference image 301 is the desired image, and if it is the desired image, the process proceeds to the next step SA2 in the flowchart shown in FIG.

ステップSA2では、ユーザが測定方法を選択する。測定方法の選択は、測定ツールの選択のことであり、図16に示す設定用ユーザーインターフェース画面300の各種設定操作領域303に表示されている測定ツールの中から選択可能になっている。測定ツールは、例えば線と線との距離を測定する「線-線」ツール、線と点との距離を測定する「線-点」ツール、点と点との距離を測定する「点-点」ツール、円と円との距離を測定する「円-円」ツール、円の直径を測定する「円径」ツール等があり、これら以外の測定ツールがあってもよい。図16に示す例では、「線-線」ツールが選択されている。 In step SA2, the user selects a measurement method. Selection of a measurement method means selection of a measurement tool, which can be selected from among the measurement tools displayed in the various setting operation area 303 of the setting user interface screen 300 shown in FIG. 16. Measurement tools include, for example, a "line-line" tool for measuring the distance between lines, a "line-point" tool for measuring the distance between a line and a point, a "point-point" tool for measuring the distance between points, a "circle-circle" tool for measuring the distance between circles, a "circle diameter" tool for measuring the diameter of a circle, and other measurement tools may also be used. In the example shown in FIG. 16, the "line-line" tool has been selected.

測定方法の選択が終わると、図15に示すフローチャートの次のステップSA3に進む。ステップSA3ではユーザが画像測定要素の設定を行う。具体的には、基準画像表示領域302に表示されている基準画像301内で、ステップSA2で選択した測定方法に応じた測定エリアの設定を行う。図16に示す例では、「線-線」ツールに応じた測定エリアを表示する形態として、2つの枠線304、304を表示させており、この枠線304、304で囲まれた領域が測定エリアである。 Once the measurement method has been selected, the process proceeds to step SA3 in the flowchart shown in FIG. 15. In step SA3, the user sets the image measurement elements. Specifically, the user sets a measurement area in accordance with the measurement method selected in step SA2 within the reference image 301 displayed in the reference image display area 302. In the example shown in FIG. 16, two frame lines 304, 304 are displayed as a form for displaying the measurement area in accordance with the "line-line" tool, and the area surrounded by these frame lines 304, 304 is the measurement area.

画像測定要素の設定後に、測定エリア(枠線304内)を例えばダブルクックすると、制御装置70が図17に示すような詳細設定用ユーザーインターフェース画面310を生成して表示装置82に表示させる。詳細設定用ユーザーインターフェース画面310では、エッジの検出方向(明→暗・暗→明)、異常点除去有無、エッジ処理の際のフィルタ幅(強度)などの設定、測定エリアの詳細な座標の指定、マスクの指定等が行える。 After setting the image measurement elements, for example, by double-clicking the measurement area (within the frame 304), the control device 70 generates a detailed setting user interface screen 310 as shown in FIG. 17 and displays it on the display device 82. On the detailed setting user interface screen 310, it is possible to set the edge detection direction (light → dark/dark → light), whether or not to remove abnormal points, the filter width (strength) during edge processing, specify the detailed coordinates of the measurement area, specify a mask, etc.

画像測定要素の設定が終わると、図15に示すフローチャートの次のステップSA4に進む。ステップSA4ではユーザが測定条件を指定する。制御装置70が図18に示すような測定条件指定用ユーザーインターフェース画面320を生成して表示装置82に表示させる。測定条件指定用ユーザーインターフェース画面320では、平均回数などの設定が受け付けられる。 When the image measurement elements have been set, the process proceeds to step SA4 in the flowchart shown in FIG. 15. In step SA4, the user specifies the measurement conditions. The control device 70 generates a user interface screen 320 for specifying measurement conditions as shown in FIG. 18 and displays it on the display device 82. The user interface screen 320 for specifying measurement conditions accepts settings such as the number of averages.

測定条件の指定が終わると、図15に示すフローチャートの次のステップSA5に進む。ステップSA5ではユーザが公差を指定する。制御装置70が図19に示すような公差指定用ユーザーインターフェース画面330を生成して表示装置82に表示させる。具体的には、公差の数値を選択すると、数値設定ウインドウ331が表示され、この数値設定ウインドウ331内のボタン等をクリックすることで、数値を設定することができる。 After the measurement conditions have been specified, the process proceeds to step SA5 in the flowchart shown in FIG. 15. In step SA5, the user specifies the tolerance. The control device 70 generates a tolerance specification user interface screen 330 as shown in FIG. 19 and displays it on the display device 82. Specifically, when the tolerance value is selected, a value setting window 331 is displayed, and the value can be set by clicking a button or the like in this value setting window 331.

公差の指定が終わると、図15に示すフローチャートの次のステップSA6に進む。ステップSA6では、画像測定要素の詳細設定の有無を判定する。画像測定要素の詳細設定があればステップSA7に進む一方、画像測定要素の詳細設定がなければステップSA7を飛ばしてステップSA8に進む。ステップSA7では、画像測定要素の詳細設定を行うことができる。その後、ステップSA8に進むと、測定要素が他にもあるか否かを判定する。測定要素が他にもある場合には、ステップSA2に戻り、当該他の測定要素について測定方法を選択する。測定要素が他にもない場合には、ステップSA9に進み、特徴量情報を登録する。特徴量情報の登録とは、位置補正の登録のことである。 Once the tolerance has been specified, the process proceeds to step SA6 in the flowchart shown in Figure 15. In step SA6, it is determined whether or not detailed settings for the image measurement elements have been made. If detailed settings for the image measurement elements have been made, the process proceeds to step SA7. If detailed settings for the image measurement elements have not been made, step SA7 is skipped and the process proceeds to step SA8. In step SA7, detailed settings for the image measurement elements can be made. After that, when the process proceeds to step SA8, it is determined whether or not there are any other measurement elements. If there are other measurement elements, the process returns to step SA2 and a measurement method is selected for the other measurement elements. If there are no other measurement elements, the process proceeds to step SA9 and feature information is registered. Registering feature information means registering position correction.

特徴量情報の登録が終了すると、ステップSA10に進み、測定設定の情報がすべて記憶装置83に保存される。測定設定の情報には、基準画像301、測定ツールの情報が含まれる。測定ツールの情報には、エリアの座標とサイズ、オフセット、エッジの検出方向、平均回数、ゼロ基準、エッジの算出方法(最小二乗近似・最大・最小など)、公差、小数点桁数、マスクの座標情報、スケーリング情報、表示単位等が含まれる。 When registration of feature information is complete, proceed to step SA10, where all measurement setting information is saved in storage device 83. The measurement setting information includes the reference image 301 and measurement tool information. The measurement tool information includes area coordinates and size, offset, edge detection direction, average count, zero reference, edge calculation method (least squares approximation, maximum, minimum, etc.), tolerance, number of decimal points, mask coordinate information, scaling information, display units, etc.

以上が設定光学測定装置1の設定時の処理手順の流れである。 The above is the flow of the processing procedure when setting up the optical measurement device 1.

(光学測定装置の運用時)
次に、設定後、光学測定装置1を実際の測定現場で運用する手順について図20に示すフローチャートに基づいて説明する。このフローチャートは、制御装置70がトリガ信号を発行するとスタートする(ステップSB1)。トリガ信号は、外部からの入力信号であってもよいし、制御装置70が所定のタイミングで発行するものであってもよい。ステップSB2では、撮像制御部39が投光用ユニット10の光源11を発光させる。光源11が発光したタイミングに合わせて撮像制御部39が二次元撮像素子31に撮像処理を実行させる。
(When operating optical measuring equipment)
Next, the procedure for operating the optical measuring device 1 at an actual measurement site after the settings will be described with reference to the flowchart shown in Fig. 20. This flowchart starts when the control device 70 issues a trigger signal (step SB1). The trigger signal may be an input signal from the outside, or may be issued by the control device 70 at a predetermined timing. In step SB2, the imaging control unit 39 causes the light source 11 of the light projection unit 10 to emit light. In synchronization with the timing at which the light source 11 emits light, the imaging control unit 39 causes the two-dimensional imaging element 31 to perform imaging processing.

その後、ステップSB3に進み、二次元撮像素子31で撮像された測定画像を画像取得部71によって取得する。測定画像を取得した後、ステップSB4に進む。ステップSB4では、ビニング、即ち取得した測定画像の4画素を1画素に結合して、画像サイズを1/4にするとともに、画像フィルタ処理として測定画像の平均化処理を行う。例えば、複数枚の画像を重ねることで平均化する等の方法を挙げることができる。 Then, proceed to step SB3, where the measurement image captured by the two-dimensional image sensor 31 is acquired by the image acquisition unit 71. After acquiring the measurement image, proceed to step SB4. In step SB4, binning is performed, that is, four pixels of the acquired measurement image are combined into one pixel to reduce the image size to 1/4, and an averaging process is performed on the measurement image as image filtering. For example, a method of averaging by overlapping multiple images can be used.

次いで、ステップSB5に進んで測定画像をDSP72に転送する。その後、ステップSB6に進んで測定エリア部画像抽出を行う。設定情報の測定エリアの情報(エリアの座標とサイズ)をもとに、測定画像からエッジ処理を行う範囲を切り出す。 Then, proceed to step SB5 and transfer the measurement image to the DSP 72. After that, proceed to step SB6 and extract the image of the measurement area. Based on the measurement area information (area coordinates and size) in the setting information, the range to be subjected to edge processing is cut out from the measurement image.

しかる後、ステップSB7に進んでエッジ処理を行う。ステップSB7では、抽出された画像のエッジを求める。測定エリアの向き(X方向、Y方向)に対してエッジ処理を行うことができる。エッジ処理では例えばガウシアンフィルタと微分処理とが用いられ、微分波形のピークを算出することでエッジが抽出される。また、画素単位からmm単位への変換も行うことができる。 Then, proceed to step SB7 to perform edge processing. In step SB7, the edges of the extracted image are found. Edge processing can be performed for the orientation of the measurement area (X direction, Y direction). In edge processing, for example, a Gaussian filter and differential processing are used, and the edge is extracted by calculating the peak of the differential waveform. It is also possible to convert from pixel units to mm units.

エッジ処理の後、ステップSB8に進む。ステップSB8では、後処理、即ち、設定情報の平均回数、オフセット、ゼロ基準、スケーリング情報をもとに、数値の後処理が行われる。 After edge processing, proceed to step SB8. In step SB8, post-processing is performed, i.e., post-processing of the numerical values is performed based on the average number of times, offset, zero reference, and scaling information of the setting information.

後処理の後、ステップSB9に進む。ステップSB9では、判定処理、即ち、設定情報の公差設定値を元にして、測定された数値が良品を示すものであるか、不良品を示すものであるか判定(良否判定)が行われる。図21は、運用時に制御装置70が生成して表示装置82に表示されるユーザーインターフェース画面340の一例を示すものである。ユーザーインターフェース画面340には、測定画像341を表示する測定画像表示領域342と、測定結果表示領域343と、総合判定結果表示領域344とが設けられている。測定結果表示領域343には、測定要素の測定結果と、良否判定の結果とが表示され、また、総合判定結果表示領域344には、測定要素が複数ある場合にそれらを総合した良否判定結果が表示される。 After the post-processing, the process proceeds to step SB9. In step SB9, a judgment process is performed, that is, a judgment is made as to whether the measured numerical value indicates a good or bad product (good or bad judgment) based on the tolerance setting value in the setting information. FIG. 21 shows an example of a user interface screen 340 that is generated by the control device 70 during operation and displayed on the display device 82. The user interface screen 340 is provided with a measurement image display area 342 that displays a measurement image 341, a measurement result display area 343, and an overall judgment result display area 344. The measurement result display area 343 displays the measurement results of the measurement elements and the result of the pass/fail judgment, and the overall judgment result display area 344 displays the overall pass/fail judgment result when there are multiple measurement elements.

結果表示画面の例としては、例えば図22Aに示すように現在選択している処理パターンの結果のみ表示する形態であってもよいし、図22Bに示すようにすべての処理パターンの表示が同時になされたうえで、現在有効な処理パターンを強調表示する形態であってもよい。図22Bに示す形態では、上の1~7が現在有効な処理パターンであり、下の1~3が現在非選択の処理パターンに対応した結果である。 Examples of the result display screen may be in a form that displays only the results of the currently selected processing pattern as shown in FIG. 22A, or in a form in which all processing patterns are displayed simultaneously and the currently active processing pattern is highlighted as shown in FIG. 22B. In the form shown in FIG. 22B, 1 to 7 at the top are the currently active processing patterns, and 1 to 3 at the bottom are the results corresponding to the currently unselected processing patterns.

なお、ここでいう「処理パターン」とは、各種ツールや測定エリアが1まとまりになった検査条件(換言すれば、レシピ、バンク)を意味する。処理パターンは複数(例えば8つ)を設定できてもよく、それぞれの処理パターンには1つの基準画像が対応付けられていてもよい。 Note that the term "processing pattern" here refers to an inspection condition (in other words, a recipe or bank) that groups together various tools and measurement areas. Multiple processing patterns (e.g., eight) may be set, and each processing pattern may be associated with one reference image.

(光軸合わせ機能)
図23は、投光用ユニット10から測定領域Sに投射された測定光を受光用ユニット30の二次元撮像素子31が受光した時の受光量分布を示す図である。図23の上側は、受光量分布を示す線で表されるように、受光量分布として中央部が多くなる場合であり、一方、図23の下側は、受光量分布が均等になる場合である。本実施形態のように、テレセントリック光学系を用いることで、図23の下側の受光量分布に近づけることができ、その結果、測定誤差を極めて小さくできるとともに、ワークWの形状に由来した反射による誤検出/誤測定を極めて小さくでき、さらに、例えば透明体のエッジの誤検出/誤測定も極めて小さくできる。
(Optical axis alignment function)
23 is a diagram showing the distribution of the amount of received light when the two-dimensional image sensor 31 of the light receiving unit 30 receives the measurement light projected from the light projecting unit 10 to the measurement area S. The upper side of FIG. 23 is a case where the amount of received light is more in the center as shown by the line indicating the distribution of the amount of received light, while the lower side of FIG. 23 is a case where the distribution of the amount of received light is uniform. By using a telecentric optical system as in this embodiment, it is possible to approach the distribution of the amount of received light shown in the lower side of FIG. 23, and as a result, it is possible to extremely reduce the measurement error, and to extremely reduce the false detection/false measurement due to reflection caused by the shape of the workpiece W, and further, it is possible to extremely reduce the false detection/false measurement of the edge of a transparent body, for example.

ところが、投光用ユニット10と受光用ユニット30の光軸合わせを厳密に行う必要がある。例えば、図4や図5に示すように共通の固定部材60を用いることなく、投光用ユニット10と受光用ユニット30を設置すると、ユーザが感覚的に光軸を合わせて使用する場合が想定される。ユーザによる感覚的な光軸合わせでは光軸が正確に合わず、その結果、高精度な測定を実現することが困難になる。特に、テレセントリック光学系では、平行光を測定光として用いるため、わずかな光軸のずれが測定精度に悪影響を与える。また、固定部材60を用いたとしても、正確な光軸合わせが困難な場合も考えられる。 However, it is necessary to precisely align the optical axes of the light projecting unit 10 and the light receiving unit 30. For example, if the light projecting unit 10 and the light receiving unit 30 are installed without using a common fixing member 60 as shown in Figures 4 and 5, it is conceivable that the user may intuitively align the optical axes when using them. Intuitive optical axis alignment by the user will not align the optical axes accurately, and as a result, it will be difficult to achieve high-precision measurements. In particular, since a telecentric optical system uses parallel light as the measurement light, even a slight misalignment of the optical axis will have a negative effect on measurement accuracy. Even if the fixing member 60 is used, it may be difficult to accurately align the optical axes.

本実施形態の光学測定装置1が備えている光軸合わせ機能は、ユーザに対して投光用ユニット10と受光用ユニット30の光軸の一致度合いを可視化して提示し、ユーザによる光軸合わせを容易にかつ高精度に行えるようにするための機能である。 The optical axis alignment function of the optical measurement device 1 of this embodiment is a function that visualizes and presents to the user the degree of alignment of the optical axes of the light projection unit 10 and the light receiving unit 30, allowing the user to align the optical axes easily and with high accuracy.

すなわち、図1に示すように、光学測定装置1は、投光窓23と受光窓43とが対向して配置されるよう投光用筐体20と受光用筐体40とを設置した状態で、二次元撮像素子31が受光した平行光の光強度分布に基づいて、当該二次元撮像素子31の撮像光軸のずれを判定する判定処理部73aと、判定処理部73aによる判定結果を、二次元画像を用いて表示する表示装置(表示部)82とを備えている。平行光の光強度分布は、二次元撮像素子31の各画素の画素値(輝度値)に基づいて得ることができる。 That is, as shown in FIG. 1, the optical measurement device 1 is equipped with a judgment processing unit 73a that judges the deviation of the imaging optical axis of the two-dimensional imaging element 31 based on the light intensity distribution of the parallel light received by the two-dimensional imaging element 31 in a state where the light projection housing 20 and the light receiving housing 40 are installed so that the light projection window 23 and the light receiving window 43 are arranged opposite each other, and a display device (display unit) 82 that displays the judgment result by the judgment processing unit 73a using a two-dimensional image. The light intensity distribution of the parallel light can be obtained based on the pixel value (luminance value) of each pixel of the two-dimensional imaging element 31.

判定処理部73aが実行する判定処理の手順を図24に示している。このフローチャートは、ユーザによる光軸合わせ操作が実行されたことを判定処理部73aが検出すると、ステップSC1からスタートする。ユーザによる光軸合わせ操作とは、例えば光軸合わせ開始ボタンの操作等である。ステップSC1では、判定処理部73aが光源11を発光させた状態で二次元撮像素子31によって撮像させる。このとき、測定領域SにはワークW等、光を遮る物体を配置しない。ステップSC1の後、ステップSC2に進み、判定処理部73aが画像データを取得する。画像データを取得すると、ステップSC3に進み、2値化処理を行う。2値化処理では、所定の輝度閾値を設けて輝度値が所定の輝度閾値以下の画素を黒、所定の輝度閾値を超える画素を白とする。その後、ステップSC4に進み、視野内に黒の画素(光強度が0である画素)がいくつ存在するかカウントする。黒の画素をカウントした後、ステップSC5に進んで光軸の一致判定を行う。ステップSC5では、黒の画素の存在をいくつまで許容するかの画素数閾値を予め設定しておき、黒の画素の数がこの画素数閾値以下(所定数以下)であれば、光軸が一致していると判定する一方、黒の画素の数がこの画素数閾値を超えていれば、光軸が一致していないと判定する。判定結果をAとする。 The procedure of the judgment process executed by the judgment processing unit 73a is shown in FIG. 24. This flowchart starts from step SC1 when the judgment processing unit 73a detects that the user has performed an optical axis alignment operation. The optical axis alignment operation by the user is, for example, the operation of the optical axis alignment start button. In step SC1, the judgment processing unit 73a causes the two-dimensional image sensor 31 to capture an image with the light source 11 emitting light. At this time, no object that blocks light, such as a workpiece W, is placed in the measurement area S. After step SC1, the process proceeds to step SC2, where the judgment processing unit 73a acquires image data. When the image data is acquired, the process proceeds to step SC3, where a binarization process is performed. In the binarization process, a predetermined brightness threshold is set, and pixels whose brightness value is equal to or less than the predetermined brightness threshold are set as black, and pixels whose brightness value exceeds the predetermined brightness threshold are set as white. Then, the process proceeds to step SC4, where the number of black pixels (pixels whose light intensity is 0) present in the field of view is counted. After counting the black pixels, the process proceeds to step SC5, where a coincidence judgment of the optical axis is performed. In step SC5, a pixel count threshold is set in advance to indicate how many black pixels are permitted to exist, and if the number of black pixels is equal to or less than this pixel count threshold (a predetermined number or less), it is determined that the optical axes are aligned, whereas if the number of black pixels exceeds this pixel count threshold, it is determined that the optical axes are not aligned. The determination result is designated as A.

すなわち、光軸が一致している場合、ワークWが存在していない状態で二次元撮像素子31が撮像すると、視野の全体の画素が高輝度値を持っていて上記輝度閾値を超えている。よって、2値化処理して得られる画像は、黒の画素が0または極めて少ない画像となっており、黒の画素の数をカウントした時、黒の画素の数が上記画素数閾値以下となる。よって、光軸が一致していると判定する。尚、上記輝度閾値は、寸法測定の精度を考慮して設定することができる。 In other words, if the optical axes are aligned, when the two-dimensional imaging element 31 captures an image without the workpiece W being present, all pixels in the field of view have high luminance values that exceed the luminance threshold. Therefore, the image obtained by binarization processing has zero or very few black pixels, and when the number of black pixels is counted, the number of black pixels is equal to or less than the pixel number threshold. Therefore, it is determined that the optical axes are aligned. The luminance threshold can be set taking into account the accuracy of the dimensional measurement.

一方、光軸が大きくずれている場合、二次元撮像素子31が撮像すると、視野の全部の画素の輝度値が0または極めて小さくなるので、上記輝度閾値以下になる。よって、2値化処理して得られる画像は、全体が黒の画素で占められた画像となっており、黒の画素の数をカウントした時、黒の画素の数が上記画素数閾値を超える。よって、光軸がずれていると判定する。 On the other hand, if the optical axis is significantly misaligned, when the two-dimensional imaging element 31 captures an image, the brightness values of all pixels in the field of view will be 0 or extremely small, falling below the brightness threshold. Therefore, the image obtained by binarization processing will be an image entirely occupied by black pixels, and when the number of black pixels is counted, the number of black pixels will exceed the pixel count threshold. Therefore, it is determined that the optical axis is misaligned.

また、光軸が大きくずれていないが、若干ずれている場合もある。この場合、二次元撮像素子31が撮像すると、視野の一部の画素の輝度値が0または極めて小さくなり、それらの画素の輝度値は上記輝度閾値以下になる。よって、2値化処理して得られる画像は、一部に黒の画素の画素が存在した画像となっており、黒の画素の数をカウントした時、黒の画素の数が上記画素数閾値を超えることがある。超えた場合には、光軸が一致していないと判定する。尚、光軸のずれ量が測定精度に殆ど悪影響を与えない程度であれば、光軸が一致していると判定してもよいので、上記画素数閾値は、測定精度に殆ど悪影響を与えない程度の黒の画素数を実験等によって予め求めておき、その値を適用することができる。 In addition, the optical axis may not be significantly misaligned, but may be slightly misaligned. In this case, when the two-dimensional imaging element 31 captures an image, the brightness value of some pixels in the field of view becomes 0 or extremely small, and the brightness value of these pixels becomes equal to or less than the brightness threshold value. Therefore, the image obtained by the binarization process has some black pixels, and when the number of black pixels is counted, the number of black pixels may exceed the pixel number threshold value. If it does, it is determined that the optical axes do not match. Note that if the amount of misalignment of the optical axis is to the extent that it has almost no adverse effect on the measurement accuracy, it may be determined that the optical axes match, so the pixel number threshold value can be determined in advance by experiment or the like to have an amount of black pixels that has almost no adverse effect on the measurement accuracy, and this value can be applied.

図24に示すフローチャートでは、ステップSC2で画像データを取得した後、ステップSC6に進む。ステップSC6では、二次元撮像素子31で取得した画像の重心を判定処理部73aが算出する。画像の重心の算出手法は従来から用いられている方法を適用することができる。重心を算出した後、ステップSC7に進み、領域内判定を行う。領域内判定では、まず、重心の座標に所定の閾値を設定しておく。例えば重心の座標を中心とし、半径を上記所定の閾値とした円を上記領域として設定することができる。そして、ステップSC8に進み、重心が上記領域内にある場合には、光軸が一致していると判定することができる一方、重心が上記領域外にある場合には、光軸が一致していないと判定することができる。判定結果をBとする。 In the flowchart shown in FIG. 24, after acquiring image data in step SC2, the process proceeds to step SC6. In step SC6, the judgment processing unit 73a calculates the center of gravity of the image acquired by the two-dimensional image sensor 31. A conventional method can be used to calculate the center of gravity of the image. After the center of gravity is calculated, the process proceeds to step SC7 to perform an in-area judgment. In the in-area judgment, a predetermined threshold is first set for the coordinates of the center of gravity. For example, a circle with the coordinates of the center of gravity as its center and a radius equal to the predetermined threshold can be set as the area. Then, the process proceeds to step SC8, where if the center of gravity is within the area, it can be judged that the optical axes are aligned, whereas if the center of gravity is outside the area, it can be judged that the optical axes are not aligned. The judgment result is B.

その後、ステップSC9では、画素数による判定結果Aと、重心位置による判定結果BのAND条件による判定を行う。ステップSC10では、ステップSC9の結果に基づいて総合判定を行う。つまり、画素数による判定結果Aで光軸が一致していると判定され、かつ、重心位置による判定結果Bで光軸が一致していると判定された場合のみ、総合判定結果として光軸が一致していると判定し、それ以外では光軸が一致していないと判定する。図24のフローチャートのステップSC1の撮像ステップは、定期的に発行される内部トリガで実行されるので、判定に用いられる画像は連続更新されている。尚、画素数による判定結果Aのみ、または重心位置による判定結果Bのみを総合判定で用いてもよい。 Then, in step SC9, a judgment is made based on the AND condition of judgment result A based on the number of pixels and judgment result B based on the center of gravity position. In step SC10, a comprehensive judgment is made based on the results of step SC9. That is, only when judgment result A based on the number of pixels judges that the optical axes are aligned and judgment result B based on the center of gravity position judges that the optical axes are aligned is the comprehensive judgment result that the optical axes are aligned; otherwise, it is judged that the optical axes are not aligned. The imaging step of step SC1 in the flowchart of FIG. 24 is executed by an internal trigger that is issued periodically, so the image used for the judgment is continuously updated. Note that only judgment result A based on the number of pixels or only judgment result B based on the center of gravity position may be used in the comprehensive judgment.

次に、図25に基づいて、光軸調整時に表示される光軸調整用ユーザーインターフェース画面400について説明する。光軸調整用ユーザーインターフェース画面400には、調整用画像401が表示される調整用画像表示領域402と、総合判定結果が表示される判定結果表示領域403と、光軸調整方法の説明文が表示された説明文表示領域404と、「閉じる」ボタン405とが設けられている。 Next, the optical axis adjustment user interface screen 400 displayed during optical axis adjustment will be described with reference to FIG. 25. The optical axis adjustment user interface screen 400 is provided with an adjustment image display area 402 in which an adjustment image 401 is displayed, a judgment result display area 403 in which a comprehensive judgment result is displayed, an explanation display area 404 in which an explanation of the optical axis adjustment method is displayed, and a "Close" button 405.

調整用画像表示領域402には、画像生成部73bが生成した二次元画像が表示される。画像生成部73bは、二次元撮像素子31における光強度分布に基づいて二次元画像を生成する部分であり、具体的には、二次元撮像素子31における光強度分布をグラデーション表示した二次元画像を生成するので、光の強弱を示す色の変化が表示されることになり、光軸のずれの大小や、どの方向へ光軸を変化させれば光軸を合わせることができるかといった情報をユーザが取得可能になる。 The two-dimensional image generated by the image generation unit 73b is displayed in the adjustment image display area 402. The image generation unit 73b is a part that generates a two-dimensional image based on the light intensity distribution in the two-dimensional image sensor 31. Specifically, the image generation unit 73b generates a two-dimensional image that displays the light intensity distribution in the two-dimensional image sensor 31 in gradation, so that a change in color indicating the intensity of light is displayed, and the user can obtain information such as the magnitude of the deviation of the optical axis and the direction in which the optical axis should be changed to align the optical axis.

また、上述したように、光軸が一致していれば、二次元撮像素子31における光強度分布は全体が高輝度値で一様になる。この状態を図25で示しており、調整用画像表示領域402に表示されている調整用画像401の円形の視野内が略均一な白色である。画像生成部73bは、CPU73が所定のプログラムに基づいて信号処理を実行することによって構成することや、物理的な処理装置で構成することができ、また、これらを組み合わせて構成することができる。判定処理部73aについても同様である。 Also, as mentioned above, if the optical axes are aligned, the light intensity distribution in the two-dimensional imaging element 31 will be uniform with high luminance values overall. This state is shown in Figure 25, where the circular field of view of the adjustment image 401 displayed in the adjustment image display area 402 is a substantially uniform white color. The image generation unit 73b can be configured by the CPU 73 executing signal processing based on a specified program, or can be configured as a physical processing device, or can be configured as a combination of these. The same is true for the judgment processing unit 73a.

画像生成部73bは、二次元撮像素子31の光軸のずれを示す第1のインジケータ406が重畳表示された二次元画像を生成することができる。画像生成部73bは、第1のインジケータ406を、判定処理部73aで算出された画像の重心に表示させる。例えば、第1のインジケータ406を「+」の印とした場合、「+」の中心が、判定処理部73aで算出された画像の重心部分に重なるように、第1のインジケータ406を表示させる。第1のインジケータ406は、例えば「+」以外の各種図形、点、記号、文字等であってもよい。第1のインジケータ406は重畳表示させなくてもよく、別枠や別ウインドウ内に表示してもよい。 The image generating unit 73b can generate a two-dimensional image in which a first indicator 406 indicating the deviation of the optical axis of the two-dimensional imaging element 31 is superimposed. The image generating unit 73b displays the first indicator 406 at the center of gravity of the image calculated by the determination processing unit 73a. For example, if the first indicator 406 is a "+" mark, the first indicator 406 is displayed so that the center of the "+" overlaps with the center of gravity of the image calculated by the determination processing unit 73a. The first indicator 406 may be, for example, various figures, points, symbols, letters, etc. other than "+". The first indicator 406 does not have to be superimposed and may be displayed in a separate frame or window.

画像生成部73bは、二次元撮像素子31の光軸の正常範囲を示す第2のインジケータ407が重畳表示された二次元画像を生成することができる。第2のインジケータ407は、重心の座標に設定された所定の閾値を示すものであり、視野中心を中心とし、半径を上記所定の閾値とした円形状のインジケータとすることができる。判定処理部73aは、二次元撮像素子31で取得した画像の重心が第2のインジケータ407で示されている正常範囲外に位置している場合には、二次元撮像素子31の撮像光軸がずれていると判定する一方、二次元撮像素子31で取得した画像の重心が第2のインジケータ407で示されている正常範囲内に位置している場合には、二次元撮像素子31の撮像光軸がずれていないと判定することができる。第2のインジケータ407は重畳表示させなくてもよく、別枠や別ウインドウ内に表示してもよい。 The image generating unit 73b can generate a two-dimensional image on which a second indicator 407 indicating the normal range of the optical axis of the two-dimensional imaging element 31 is superimposed. The second indicator 407 indicates a predetermined threshold value set at the coordinates of the center of gravity, and can be a circular indicator centered on the center of the field of view and having a radius of the predetermined threshold value. The determination processing unit 73a can determine that the imaging optical axis of the two-dimensional imaging element 31 is misaligned when the center of gravity of the image acquired by the two-dimensional imaging element 31 is located outside the normal range indicated by the second indicator 407, while determining that the imaging optical axis of the two-dimensional imaging element 31 is not misaligned when the center of gravity of the image acquired by the two-dimensional imaging element 31 is located within the normal range indicated by the second indicator 407. The second indicator 407 does not need to be superimposed, and may be displayed in a separate frame or window.

また、画像生成部73bは、二次元撮像素子31における光強度分布をX軸方向に投影したX軸プロファイルと、二次元撮像素子31における光強度分布をY軸方向に投影したY軸プロファイルとを生成する。X軸プロファイルは、X軸プロファイル表示部408に表示され、Y軸プロファイルは、Y軸プロファイル表示部409に表示される。X軸プロファイル表示部408は、視野のX方向(図25の左右方向)に対応するようにX軸プロファイルを表示する部分であり、輝度値0と輝度値255が表示されており、上へ行くほど輝度値が高くなっている。また、Y軸プロファイル表示部409は、視野のY方向(図25の上下方向)に対応するようにY軸プロファイルを表示する部分であり、輝度値0と輝度値255が表示されており、左へ行くほど輝度値が高くなっている。図25に示す例では光軸が一致しているので、X軸プロファイル及びY軸プロファイルは平坦に近い形状であり、各軸に対する傾きも殆どない。画像生成部73bは、X軸プロファイルとY軸プロファイルの変化を、第1のインジケータ406の動きと連動させることができる。これについては後述する。 The image generating unit 73b generates an X-axis profile in which the light intensity distribution in the two-dimensional image sensor 31 is projected in the X-axis direction, and a Y-axis profile in which the light intensity distribution in the two-dimensional image sensor 31 is projected in the Y-axis direction. The X-axis profile is displayed on the X-axis profile display unit 408, and the Y-axis profile is displayed on the Y-axis profile display unit 409. The X-axis profile display unit 408 is a portion that displays the X-axis profile so as to correspond to the X direction of the field of view (the left-right direction in FIG. 25), and displays a brightness value of 0 and a brightness value of 255, with the brightness value increasing upward. The Y-axis profile display unit 409 is a portion that displays the Y-axis profile so as to correspond to the Y direction of the field of view (the up-down direction in FIG. 25), and displays a brightness value of 0 and a brightness value of 255, with the brightness value increasing leftward. In the example shown in FIG. 25, the optical axes are aligned, so the X-axis profile and the Y-axis profile are nearly flat, and there is almost no inclination with respect to each axis. The image generating unit 73b can link the changes in the X-axis profile and the Y-axis profile with the movement of the first indicator 406. This will be described later.

また、画像生成部73bは、X軸及びY軸をそれぞれ示すX軸表示線410及びY軸表示線411が重畳表示された二次元画像を生成する。X軸表示線410及びY軸表示線411は、調整用画像表示領域402に表示されるので、ユーザはどの方向がX方向、Y方向であるか容易に把握できる。X軸表示線410及びY軸表示線411は重畳表示させなくてもよく、別枠や別ウインドウ内に表示してもよい。 The image generating unit 73b also generates a two-dimensional image in which an X-axis display line 410 and a Y-axis display line 411, which indicate the X-axis and Y-axis, respectively, are superimposed. The X-axis display line 410 and the Y-axis display line 411 are displayed in the adjustment image display area 402, so the user can easily understand which direction is the X direction and which is the Y direction. The X-axis display line 410 and the Y-axis display line 411 do not need to be superimposed, and may be displayed in a separate frame or window.

図25で示す例では光軸が一致しているので、判定結果表示領域403には、光軸が一致していることの表示として「OK」と表示される。「閉じる」ボタン405が押されたことを検出すると、光軸調整用ユーザーインターフェース画面400が閉じられるとともに、判定処理部73aによる判定処理が終了する。 In the example shown in FIG. 25, the optical axes are aligned, so the judgment result display area 403 displays "OK" to indicate that the optical axes are aligned. When it is detected that the "Close" button 405 has been pressed, the optical axis adjustment user interface screen 400 is closed and the judgment process by the judgment processing unit 73a ends.

図26は、光軸が一致していると判定できる範囲内で少しだけずれている場合の光軸調整用ユーザーインターフェース画面400の一例を示す図である。光軸のずれ量及びその方向に対応して、調整用画像401の視野内の右側が左側に比べて若干暗くなっているが、第1のインジケータ406は第2のインジケータ407内に位置している。図26では、X軸プロファイル表示部408を見ると、図25に示す場合に比べて右へ行くほど輝度値が低下している。つまり、X軸プロファイルの変化を、第1のインジケータ406の動きと連動させることができ、第1のインジケータ406が例えば左へ行けば行くほど、X軸プロファイルが右に向かって大きく下降傾斜することになる。同様に、Y軸プロファイルの変化も第1のインジケータ406の動きと連動させることができる。 26 is a diagram showing an example of the optical axis adjustment user interface screen 400 when the optical axis is slightly misaligned within a range where it can be determined that the optical axis is aligned. The right side of the field of view of the adjustment image 401 is slightly darker than the left side in accordance with the amount of misalignment of the optical axis and its direction, but the first indicator 406 is located within the second indicator 407. In FIG. 26, when looking at the X-axis profile display section 408, the brightness value decreases as you move to the right compared to the case shown in FIG. 25. In other words, the change in the X-axis profile can be linked to the movement of the first indicator 406, and the more the first indicator 406 moves to the left, for example, the greater the downward inclination of the X-axis profile toward the right. Similarly, the change in the Y-axis profile can also be linked to the movement of the first indicator 406.

図27は、光軸が一致していない場合の光軸調整用ユーザーインターフェース画面400の一例を示す図である。調整用画像401の視野内の右側が左側に比べて暗くなっており、暗くなっている範囲が広範囲に亘っている。つまり、2値化処理した後、黒の画素の数が上記画素数閾値を超えることになるので、光軸が一致していないと判定できる。また、第1のインジケータ406は第2のインジケータ407外に位置している。ユーザは、調整用画像401を見ることで、右側が暗いことを把握できるので、調整の方向、右側が明るくなる方向に調整すればよいことが直感的に分かる。また、X軸プロファイルが右に向かって大きく下降傾斜しており、これを見ることによっても、調整の方向が直感的に分かる。また、調整時には、説明文表示領域404に表示された光軸調整方法の説明文を読むことでその方法を理解できる。 27 is a diagram showing an example of the optical axis adjustment user interface screen 400 when the optical axes are not aligned. The right side of the field of view of the adjustment image 401 is darker than the left side, and the dark range is wide. In other words, after binarization processing, the number of black pixels exceeds the pixel number threshold, so it can be determined that the optical axes are not aligned. In addition, the first indicator 406 is located outside the second indicator 407. By looking at the adjustment image 401, the user can understand that the right side is dark, and therefore intuitively know that the direction of adjustment is to adjust the right side in a direction that makes it brighter. In addition, the X-axis profile has a large downward incline toward the right, and by looking at this, the direction of adjustment can also be intuitively understood. In addition, when making adjustments, the method can be understood by reading the explanation of the optical axis adjustment method displayed in the explanation display area 404.

図28は、光軸は一致しているが調整用画像401に異物が写りこんでいる場合の光軸調整用ユーザーインターフェース画面400の一例を示す図である。この場合、調整用画像表示領域402には、画像生成部73bが生成した異物を含む二次元画像が調整用画像401として表示されており、異物が影像となっている。これにより、調整時に測定領域Sに異物が存在しているか否かをユーザが把握できる。異物の影響によって画像の重心が図25の場合に比べて大きく変化するので、第1のインジケータ406が第2のインジケータ407外に位置することになる。 Figure 28 is a diagram showing an example of the optical axis adjustment user interface screen 400 when the optical axes are aligned but a foreign object is captured in the adjustment image 401. In this case, a two-dimensional image including the foreign object generated by the image generating unit 73b is displayed as the adjustment image 401 in the adjustment image display area 402, and the foreign object appears as a shadow image. This allows the user to know whether or not a foreign object is present in the measurement area S during adjustment. Because the influence of the foreign object causes the center of gravity of the image to change significantly compared to the case of Figure 25, the first indicator 406 is positioned outside the second indicator 407.

図29は、光軸が一致しているが視野がずれている場合の光軸調整用ユーザーインターフェース画面400の一例を示す図である。具体的には、視野が図29の左方向にずれているので、調整用画像401の右側領域が暗くなっている。視野がずれていることによって画像の重心が図25の場合に比べて大きく変化し、第1のインジケータ406が第2のインジケータ407外に位置することになる。ユーザは光軸調整用ユーザーインターフェース画面400を見ることで、光軸の調整だけでなく、視野の調整も行うことができる。 Figure 29 is a diagram showing an example of the optical axis adjustment user interface screen 400 when the optical axis is aligned but the field of view is misaligned. Specifically, the field of view is misaligned to the left in Figure 29, so the right area of the adjustment image 401 is dark. Due to the misaligned field of view, the center of gravity of the image changes significantly compared to the case of Figure 25, and the first indicator 406 is positioned outside the second indicator 407. By looking at the optical axis adjustment user interface screen 400, the user can adjust not only the optical axis but also the field of view.

(判定アルゴリズムの例)
光軸が一致しているか否かの判定アルゴリズムとしては、以下に示す例を挙げることができる。例えばX軸プロファイルの傾きの閾値を設け、この傾きが閾値を超える場合には光軸が一致していないと判定することができる。同様に、Y軸プロファイルの傾きの閾値を設け、この傾きが閾値を超える場合には光軸が一致していないと判定することができる。この場合、一次元のみで判定してもよいし、X軸とY軸を組み合わせた二次元で判定してもよい。
(Example of a judgment algorithm)
Examples of algorithms for determining whether the optical axes are aligned can be given below. For example, a threshold value for the inclination of the X-axis profile can be set, and if this inclination exceeds the threshold value, it can be determined that the optical axes are not aligned. Similarly, a threshold value for the inclination of the Y-axis profile can be set, and if this inclination exceeds the threshold value, it can be determined that the optical axes are not aligned. In this case, the determination may be made in one dimension only, or in two dimensions combining the X-axis and Y-axis.

また、例えば、視野の一端と他端との光量差を求め、その光量差が閾値を超える場合には光軸が一致していないと判定することができる。この場合も、一次元のみで判定してもよいし、二次元で判定してもよい。 In addition, for example, the difference in the amount of light between one end and the other end of the field of view can be calculated, and if the difference in the amount of light exceeds a threshold, it can be determined that the optical axes do not coincide. In this case, too, the determination can be made in only one dimension, or in two dimensions.

また、例えば、視野全域での光量のPV値(最大値と最小値)を求め、最大値と最小値との差が閾値を超える場合には光軸が一致していないと判定することができる。この場合も、一次元のみで判定してもよいし、二次元で判定してもよい。また、視野全域での光量の平均値、最大値及び最小値を求め、最大値から平均値を減算した値が閾値を超える場合には光軸が一致していないと判定することができ、また、平均値から最小値を減算した値が閾値を超える場合には光軸が一致していないと判定することができる。この場合も、一次元のみで判定してもよいし、二次元で判定してもよい。 Also, for example, the PV value (maximum and minimum) of the amount of light in the entire field of view is obtained, and if the difference between the maximum and minimum values exceeds a threshold value, it can be determined that the optical axes do not match. In this case, too, the determination may be made in one dimension only or in two dimensions. Also, the average value, maximum value, and minimum value of the amount of light in the entire field of view are obtained, and if the value obtained by subtracting the average value from the maximum value exceeds a threshold value, it can be determined that the optical axes do not match, and if the value obtained by subtracting the minimum value from the average value exceeds a threshold value, it can be determined that the optical axes do not match. In this case, too, the determination may be made in one dimension only or in two dimensions.

また、例えば、視野全域での光量の分散値を求め、分散値が閾値を超える場合には光軸が一致していないと判定することができる。この場合も、一次元のみで判定してもよいし、二次元で判定してもよい。 In addition, for example, the variance value of the amount of light across the entire field of view can be calculated, and if the variance value exceeds a threshold value, it can be determined that the optical axes are not aligned. In this case, too, the determination can be made in only one dimension, or in two dimensions.

また、例えば、視野全域での光量の平均値を求め、平均値が閾値を超える場合には光軸が一致していないと判定することができる。この場合も、一次元のみで判定してもよいし、二次元で判定してもよい。 In addition, for example, the average value of the light amount across the entire field of view can be calculated, and if the average value exceeds a threshold value, it can be determined that the optical axes are not aligned. In this case, too, the determination can be made in one dimension only, or in two dimensions.

上述した判定アルゴリズムは、1つだけ用いてもよいし、任意の複数を組み合わせて用いてもよい。 The above-mentioned determination algorithms may be used alone or in any combination of multiple algorithms.

(実施形態の作用効果)
以上説明したように、この実施形態によれば、光学測定装置1の使用時に、投光窓23と受光窓43とが対向して配置されるよう投光用筐体20と受光用筐体40とを設置した後、判定処理部73aが、二次元撮像素子31が受光した平行光の光強度分布に基づいて、当該二次元撮像素子31の撮像光軸のずれを判定することができる。例えば、光強度分布において光が全体的に弱い場合には、光軸がずれていることによって二次元撮像素子31が正常に受光していないと推定されるので、その場合には、二次元撮像素子31の撮像光軸がずれていると判定できる。一方、光強度分布において光が全体的に強い場合には、二次元撮像素子31が正常に受光していると推定されるので、その場合には、二次元撮像素子31の撮像光軸がずれていないと判定できる。この判定結果は、表示装置82に二次元画像を用いて表示されるので、ユーザは二次元画像を見ながら二次元撮像素子31の撮像光軸のずれを合わすことが可能になる。
(Effects of the embodiment)
As described above, according to this embodiment, when the optical measuring device 1 is used, the light projecting housing 20 and the light receiving housing 40 are installed so that the light projecting window 23 and the light receiving window 43 are arranged opposite to each other, and then the determination processing unit 73a can determine the deviation of the imaging optical axis of the two-dimensional imaging element 31 based on the light intensity distribution of the parallel light received by the two-dimensional imaging element 31. For example, when the light intensity distribution is generally weak, it is estimated that the two-dimensional imaging element 31 does not receive light normally due to the deviation of the optical axis, and in that case, it can be determined that the imaging optical axis of the two-dimensional imaging element 31 is deviated. On the other hand, when the light intensity distribution is generally strong, it is estimated that the two-dimensional imaging element 31 receives light normally, and in that case, it can be determined that the imaging optical axis of the two-dimensional imaging element 31 is not deviated. This determination result is displayed on the display device 82 using a two-dimensional image, so that the user can adjust the deviation of the imaging optical axis of the two-dimensional imaging element 31 while watching the two-dimensional image.

上述の実施形態はあらゆる点で単なる例示に過ぎず、限定的に解釈してはならない。さらに、特許請求の範囲の均等範囲に属する変形や変更は、全て本発明の範囲内のものである。 The above-described embodiments are merely illustrative in all respects and should not be interpreted as limiting. Furthermore, all modifications and variations within the scope of the claims are within the scope of the present invention.

以上説明したように、本発明に係る光学測定装置は、投光用筐体と受光用筐体との間に配置したワークの寸法等を測定する場合に利用できる。 As described above, the optical measuring device according to the present invention can be used to measure the dimensions of a workpiece placed between a light-projecting housing and a light-receiving housing.

1 光学測定装置
10 投光用ユニット
11 光源
12 光源ホルダ
15 投光側テレセントリックレンズ
20 投光用筐体
23 投光窓
30 受光用ユニット
31 二次元撮像素子
35 受光側反射体
36 受光側テレセントリックレンズ
38 受光側レンズユニット
40 受光用筐体
43 受光窓
73a 判定処理部
73b 画像生成部
82 表示装置(表示部)
406 第1のインジケータ
407 第2のインジケータ
408 X軸プロファイル表示部
409 Y軸プロファイル表示部
410 X軸表示線
411 Y軸表示線
S 測定領域
W ワーク
REFERENCE SIGNS LIST 1 Optical measuring device 10 Light projection unit 11 Light source 12 Light source holder 15 Light projection telecentric lens 20 Light projection housing 23 Light projection window 30 Light receiving unit 31 Two-dimensional image sensor 35 Light receiving reflector 36 Light receiving telecentric lens 38 Light receiving lens unit 40 Light receiving housing 43 Light receiving window 73a Determination processing unit 73b Image generating unit 82 Display device (display unit)
406 First indicator 407 Second indicator 408 X-axis profile display section 409 Y-axis profile display section 410 X-axis display line 411 Y-axis display line S Measurement area W Workpiece

Claims (11)

ワークが配置される測定領域に投射する測定光を生成する光源と、
前記光源により生成された測定光が入射され、該測定光を測定領域に向けた平行光に変換する投光側テレセントリックレンズと、
前記投光側テレセントリックレンズが取り付けられ、前記投光側テレセントリックレンズから出射された平行光を測定領域へ投射するための投光窓を有する投光用筐体と、
測定領域を通過した平行光が入射する受光側テレセントリックレンズと、
前記受光側テレセントリックレンズを通過した光を受光する二次元撮像素子と、
前記受光側テレセントリックレンズ及び前記二次元撮像素子が取り付けられるとともに、測定領域を通過した平行光を前記受光側テレセントリックレンズへ入射させるための受光窓を有する受光用筐体と、
前記投光窓と前記受光窓とが対向するように前記投光用筐体と前記受光用筐体とが設置され、前記光源により生成されて測定領域を通過した平行光が前記二次元撮像素子の画素に受光されている状態で、当該平行光が受光されている画素の画素値から得られる光強度分布の形状の変化に基づいて、当該二次元撮像素子の撮像光軸のずれを判定する判定処理部と、
前記判定処理部による判定結果を、二次元画像を用いて表示する表示部とを備えている光学測定装置。
A light source that generates measurement light to be projected onto a measurement area in which a workpiece is placed;
a light-projecting telecentric lens into which the measurement light generated by the light source is incident and which converts the measurement light into parallel light directed to a measurement area;
a light projection housing to which the light projection side telecentric lens is attached and which has a light projection window for projecting the parallel light emitted from the light projection side telecentric lens onto a measurement area;
a light-receiving telecentric lens onto which the parallel light having passed through the measurement area is incident;
a two-dimensional image sensor that receives light that has passed through the light-receiving telecentric lens;
a light-receiving housing to which the light-receiving telecentric lens and the two-dimensional image sensor are attached and which has a light-receiving window for allowing the parallel light having passed through the measurement area to be incident on the light-receiving telecentric lens;
the light projecting housing and the light receiving housing are disposed so that the light projecting window and the light receiving window face each other, and in a state in which parallel light generated by the light source and passing through a measurement region is received by pixels of the two-dimensional image sensor, a determination processing unit determines a deviation of an image pickup optical axis of the two-dimensional image sensor based on a change in a shape of a light intensity distribution obtained from pixel values of the pixels receiving the parallel light;
an optical measuring device comprising a display unit that displays a result of the determination by the determination processing unit using a two-dimensional image.
請求項1に記載の光学測定装置において、
前記二次元撮像素子の前記平行光が受光されている画素の画素値から得られる光強度分布の形状の変化に基づいて前記二次元画像を生成する画像生成部を備え、
前記画像生成部で生成された前記二次元画像が前記表示部に表示される光学測定装置。
2. The optical measurement device according to claim 1,
an image generating unit that generates the two-dimensional image based on a change in a shape of a light intensity distribution obtained from pixel values of pixels receiving the parallel light of the two-dimensional image sensor,
The two-dimensional image generated by the image generation unit is displayed on the display unit.
請求項2に記載の光学測定装置において、
前記画像生成部は、前記二次元撮像素子における光強度分布をグラデーション表示した二次元画像を生成する光学測定装置。
3. The optical measuring device according to claim 2,
The image generating unit is an optical measurement device that generates a two-dimensional image in which the light intensity distribution on the two-dimensional imaging element is displayed with a gradation.
請求項2または3に記載の光学測定装置において、
前記画像生成部は、前記二次元撮像素子の光軸のずれを示す第1のインジケータが表示された前記二次元画像を生成する光学測定装置。
4. The optical measuring device according to claim 2,
The image generating unit generates the two-dimensional image on which a first indicator showing a deviation of the optical axis of the two-dimensional imaging element is displayed.
請求項4に記載の光学測定装置において、
前記判定処理部は、前記二次元撮像素子で取得した画像の重心を算出し、
前記画像生成部は、前記判定処理部で算出された画像の重心に前記第1のインジケータを表示させる光学測定装置。
5. The optical measuring device according to claim 4,
The determination processing unit calculates a center of gravity of the image acquired by the two-dimensional image sensor,
The image generating unit displays the first indicator at the center of gravity of the image calculated by the determination processing unit.
請求項4または5に記載の光学測定装置において、
前記画像生成部は、前記二次元撮像素子の光軸の正常範囲を示す第2のインジケータが表示された前記二次元画像を生成する光学測定装置。
6. The optical measuring device according to claim 4,
The image generating unit generates the two-dimensional image on which a second indicator indicating a normal range of the optical axis of the two-dimensional imaging element is displayed.
請求項6に記載の光学測定装置において、
前記判定処理部は、前記二次元撮像素子で取得した画像の重心が前記第2のインジケータで示されている前記正常範囲外に位置している場合には、前記二次元撮像素子の撮像光軸がずれていると判定する一方、前記二次元撮像素子で取得した画像の重心が前記第2のインジケータで示されている前記正常範囲内に位置している場合には、前記二次元撮像素子の撮像光軸がずれていないと判定する光学測定装置。
7. The optical measuring device according to claim 6,
The judgment processing unit judges that the imaging optical axis of the two-dimensional imaging element is misaligned when the center of gravity of the image acquired by the two-dimensional imaging element is located outside the normal range indicated by the second indicator, and judges that the imaging optical axis of the two-dimensional imaging element is not misaligned when the center of gravity of the image acquired by the two-dimensional imaging element is located within the normal range indicated by the second indicator.
請求項4から7のいずれか1つに記載の光学測定装置において、
前記画像生成部は、前記二次元撮像素子における光強度分布をX軸方向に投影したX軸プロファイルと、前記二次元撮像素子における光強度分布をY軸方向に投影したY軸プロファイルとを生成し、前記X軸プロファイルと前記Y軸プロファイルの変化を、前記第1のインジケータの動きと連動させる光学測定装置。
8. The optical measuring device according to claim 4,
The image generation unit generates an X-axis profile by projecting the light intensity distribution on the two-dimensional imaging element in the X-axis direction and a Y-axis profile by projecting the light intensity distribution on the two-dimensional imaging element in the Y-axis direction, and links changes in the X-axis profile and the Y-axis profile to movement of the first indicator.
請求項4または6に記載の光学測定装置において、
前記画像生成部は、前記二次元撮像素子の光軸の正常範囲を示す第2のインジケータが重畳表示された前記二次元画像を生成する光学測定装置。
7. The optical measuring device according to claim 4,
The image generating unit generates the two-dimensional image on which a second indicator indicating a normal range of the optical axis of the two-dimensional imaging element is superimposed.
請求項1から9のいずれか1つに記載の光学測定装置において、
前記判定処理部は、前記二次元撮像素子における光強度分布をX軸方向またはY軸方向に投影したプロファイルの形状変化に基づいて撮像光軸のずれを判定する光学測定装置。
10. The optical measuring device according to claim 1 ,
The determination processing unit is an optical measurement device that determines a deviation of an imaging optical axis based on a change in shape of a profile obtained by projecting a light intensity distribution on the two-dimensional imaging element in an X-axis direction or a Y-axis direction.
請求項1から10のいずれか1つに記載の光学測定装置において、
前記判定処理部は、前記二次元撮像素子で取得した画像データを2値化処理した後、光強度が0であるとされている画素数をカウントし、得られた画素数が所定数以下である場合には、前記二次元撮像素子の撮像光軸がずれていないと判定する一方、得られた画素数が所定数を超える場合には、前記二次元撮像素子の撮像光軸がずれていると判定する光学測定装置。
11. The optical measuring device according to claim 1 ,
The judgment processing unit performs binarization processing on the image data acquired by the two-dimensional imaging element, and then counts the number of pixels whose light intensity is considered to be 0. If the obtained number of pixels is equal to or less than a predetermined number, it judges that the imaging optical axis of the two-dimensional imaging element is not misaligned, whereas if the obtained number of pixels exceeds the predetermined number, it judges that the imaging optical axis of the two-dimensional imaging element is misaligned. This optical measurement device.
JP2020193510A 2020-11-20 2020-11-20 Optical Measuring Device Active JP7583586B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2020193510A JP7583586B2 (en) 2020-11-20 2020-11-20 Optical Measuring Device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020193510A JP7583586B2 (en) 2020-11-20 2020-11-20 Optical Measuring Device

Publications (2)

Publication Number Publication Date
JP2022082132A JP2022082132A (en) 2022-06-01
JP7583586B2 true JP7583586B2 (en) 2024-11-14

Family

ID=81801392

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020193510A Active JP7583586B2 (en) 2020-11-20 2020-11-20 Optical Measuring Device

Country Status (1)

Country Link
JP (1) JP7583586B2 (en)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20220341725A1 (en) * 2021-04-26 2022-10-27 Quality Vision International Inc. Non-invasive alignment method and system for imager-illuminator optical measurement machines
US20250076034A1 (en) * 2023-08-30 2025-03-06 Keyence Corporation Optical displacement meter

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000155013A (en) 1998-11-20 2000-06-06 Keyence Corp Shape measuring instrument
JP2009244175A (en) 2008-03-31 2009-10-22 Sunx Ltd Light receiving unit of measuring device, light receiving unit of attitude detection sensor, and method for manufacturing the same
JP2012032224A (en) 2010-07-29 2012-02-16 Keyence Corp Dimension measuring device, dimension measuring method, and program for dimension measuring device
JP2014149175A (en) 2013-01-31 2014-08-21 Nidec Tosok Corp Optical measuring device

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000155013A (en) 1998-11-20 2000-06-06 Keyence Corp Shape measuring instrument
JP2009244175A (en) 2008-03-31 2009-10-22 Sunx Ltd Light receiving unit of measuring device, light receiving unit of attitude detection sensor, and method for manufacturing the same
JP2012032224A (en) 2010-07-29 2012-02-16 Keyence Corp Dimension measuring device, dimension measuring method, and program for dimension measuring device
JP2014149175A (en) 2013-01-31 2014-08-21 Nidec Tosok Corp Optical measuring device

Also Published As

Publication number Publication date
JP2022082132A (en) 2022-06-01

Similar Documents

Publication Publication Date Title
KR102038396B1 (en) System and method for calibrating a vision system with respect to a touch probe
US20040109170A1 (en) Confocal distance sensor
JP5072337B2 (en) Optical displacement sensor and adjustment method thereof
US20200149875A1 (en) Displacement Measuring Apparatus
US8289387B2 (en) Vision system, method for installing a vision system and method for manufacturing a vision system
JP7583586B2 (en) Optical Measuring Device
JP2008157933A (en) Color measuring head and scanner device equipped with same
CN111854631B (en) Optical displacement meter
EP1840503B1 (en) A component placement unit as well as a component placement device comprising such a component placement unit
US7456941B2 (en) Measuring device for measuring the refraction properties of optical lenses
US11668559B2 (en) Optical measurement apparatus
US20090110333A1 (en) Light measuring device and scanning optical system
CN106441173A (en) Position correcting tool and X-ray position measurement device
US7453558B2 (en) Measuring device for measuring the refraction properties of optical lenses
JP3715377B2 (en) Object shape measuring device
KR101911425B1 (en) Autocollimator
JP7527181B2 (en) Optical Measuring Device
CN117092814A (en) Adjusting device and method for optical system of poloxamer
US9921401B2 (en) Measuring device with alignment and reference position for measurement object
JP7588497B2 (en) Optical Measuring Device
JP7652660B2 (en) Optical Measuring Device
JP2008139190A (en) Size measuring device of coil spring
KR102768824B1 (en) Compensation device, processing system and compensation method
JP2022082138A (en) Optical measuring device
US11733030B2 (en) Method and apparatus for contactless high-resolution determination and control of an object position

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20230908

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20240325

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20240409

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20240510

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20240827

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20241002

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20241022

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20241101

R150 Certificate of patent or registration of utility model

Ref document number: 7583586

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150